Inicio | Acerca del Autor | E-mail

viernes, 16 de noviembre de 2012

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (I)


Los seres humanos construyeron túneles, represas, canales, fortificaciones, carreteras y otras estructuras mucho antes de que hubiera una disciplina formal de la Ingeniería Geotécnica. Aunque muchos impresionantes proyectos fueron construidos, la capacidad de los ingenieros para hacer frente a los problemas geotécnicos de una forma analíticamente rigurosa que les permitiese aprender de la experiencia y catalogar el comportamiento de los suelos y las rocas, era limitada.

Portada de 'Resolución de Problemas Geotécnicos' (Lommler,  2012)

Durante los dos primeros tercios del siglo XX, un grupo de ingenieros e investigadores, dirigido por Karl Terzaghi (1883-1963), cambió todo eso mediante la aplicación de los métodos de la física y la ingeniería mecánica, para el estudio de los materiales geológicos (Terzaghi, 1925). Ellos desarrollaron métodos de análisis teórico, procedimientos de análisis de laboratorio y técnicas para mediciones de campo. Esto permitió un enfoque racional para el diseño y, en el proceso, proporcionaron el pre requisito más importantes para el avance tecnológico: un sistema parsimonioso de referencia dentro del cual catalogar la observación y la experiencia.

Los desarrollos de principios de los años 1900s llegaron casi un siglo después de la introducción de métodos racionales en la ingeniería estructural y diseño de máquinas. El retraso no es sorprendente, ya que la empresa de enfrentar materiales tal y como la naturaleza los depositó, es profundamente diferente de la de tratar con materiales elaborados por el hombre, incluso materiales tan complicados como el concreto reforzado. Los ingenieros estructurales y mecánicos se enfrentan a un mundo casi en su totalidad fabricado por ellos mismos. La geometrías y las propiedades de los materiales son especificas; los sistemas de componentes y sus puntos de conexión están previstos de antemano. Las principales incertidumbres tienen que ver con las tolerancias con las que se puede construir la estructura o el dispositivo mecánico, y con las cargas y las condiciones ambientales a las que estará expuesta la estructura o dicho dispositivo.

La empresa de la Ingeniería Geotécnica es diferente. El ingeniero geotécnico o el ingeniero geólogo, se ocupa principalmente de las geometrías y materiales que ofrece la naturaleza. Estas condiciones naturales son desconocidas para el diseñador y deben ser inferidas de observaciones limitadas y costosas. Las principales incertidumbres tienen que ver con la exactitud e integralidad con las que se conocen las condiciones del subsuelo, y con las resistencias que estos materiales serán capaces de movilizar. Las incertidumbres en la ingeniería estructural y mecánica son en gran parte deductivas: a partir de las condiciones razonablemente bien conocidas, los modelos se utilizan para deducir el comportamiento de un universo razonablemente bien especificado. Las incertidumbres en la Ingeniería Geotécnica son en gran medida inductivas: a partir de observaciones limitadas, el juicio, el conocimiento de la geología y el razonamiento estadístico se emplean para inferir el comportamiento de un universo pobremente definido. 

EQUILIBRANDO EL RIESGO Y LA CONFIABILIDAD EN EL DISEÑO GEOTÉCNICO

En las últimas décadas, los códigos geotécnicos de diseño se han desarrollado considerablemente. La práctica de la Ingeniería Geotécnica se ha desarrollado desde las decisiones basadas en la experiencia (las reglas empíricas) hasta el criterio del Diseño Racional.

En muchos aspectos, los códigos geotécnicos de diseño han seguido la evolución de la ingeniería estructural (por ejemplo, en el Diseño por Carga y Factor de Resistencia (LRFD)), probablemente porque los problemas son similares: las incertidumbres en la carga y la resistencia, diseño de estado límite, o los mecanismos de falla de los modelos basados en la física. Además de los enfoques de diseño, también la teoría de la confiabilidad estructural (es decir, el enfoque probabilístico) se ha desarrollado considerablemente. Por ejemplo, la calibración de los factores de seguridad parciales en la Ingeniería Geotécnica y estructural se basa en los conceptos de confiabilidad.

Sin embargo, existen diferencias fundamentales entre las estructuras de concreto o de acero y las estructuras geotécnicas. La Ingeniería Geotécnica trata con materiales naturalmente depositados, en contraste con el concreto o el acero, que son hechos por el hombre. Mientras que en el concreto las principales incertidumbres son las propiedades del material debido al proceso de producción, con las condiciones del terreno incluso la composición o la estratificación no se conocen perfectamente. Es una práctica común que los ingenieros geotécnicos o los ingenieros geólogos hagan una caracterizaciones de las condiciones del terreno como las mejores conjeturas o estimaciones prudentes basadas en los datos disponibles, y mientras que los factores de seguridad  de los códigos de diseño se encargan de cuidar de las incertidumbres del material dentro de estos escenarios seleccionados o las posibles verdades, la incertidumbre en el proceso de caracterización no está cubierta por ningún concepto de seguridad.

Los tres pasos principales en la caracterización geotécnica son:

  1. La caracterización de la disposición en capas del subsuelo y la geometría, 
  2. Suposiciones y modelado respecto a las presiones de poro, y 
  3. La elección de un modelo computacional adecuado y sus parámetros de entrada.

Diferentes diseñadores definitivamente tomarían decisiones diferentes en cada uno de estos pasos, llevando a resultados en algún lugar entre optimistas y muy conservadores, o pesimistas. Esto implica, que la confiabilidad de los diseños resultantes varía, debido a que las suposiciones optimistas no conducen a mayores factores de seguridad que se aplicarán o viceversa.

Pasos y alternativas en la Caracterización Geotécnica (Schweckendiek, T. & Calle, 2010)

La mayoría de los primeros pioneros de la Ingeniería Geotécnica, fueron educados en las disciplinas de la ingeniería estructural y mecánica, mientras aquellas disciplinas desarrollaban una base racional y científica. Por ejemplo, el primer título de Terzaghi fue en ingeniería mecánica, Peck comenzó como ingeniero estructural, y la educación de Casagrande fue en hidráulica. Sin embargo, a medida que estos y otros pioneros iban casi poniendo la fundación racional de lo que finalmente se conocería como la Ingeniería Geotécnica, eran muy conscientes de las limitaciones del enfoque deductivo, puramente racional, respecto de las condiciones inciertas que prevalecen en ese mundo geológico. Sus últimos escritos están llenos de advertencias de que no se deben tomar los resultados de las pruebas de laboratorio y los cálculos analíticos muy literalmente. De hecho, uno de los factores que atrajo a muchos estudiantes a este campo era esta incertidumbre. Incluso a nivel de pregrado, las cosas no parecían ser de recortado y secado. Cada proyecto representa un nuevo desafío. Había espacio para la investigación en cada nuevo proyecto, así como para el ejercicio de juicio.

La forma más ampliamente aceptada y eficaz para enfrentar las incertidumbres inherentes al tratamiento de materiales geológicos llegó a ser conocida como el Método Observacional, descrito sucintamente por Casagrande (1965) y Peck (1969). Es una parte esencial también del Nuevo Método Austriaco de Túneles NATM (Rabcewitz 1964a, 1964b, 1965;. Einstein et al 1996).

El Método Observacional surgió del hecho de que no es factible en muchas aplicaciones geotécnicas asumir valores muy conservadores de las cargas y de las propiedades del material, y diseñar bajo tales condiciones.

A menudo, el diseño resultante es física o financieramente imposible de construir. En cambio, el ingeniero realiza estimaciones razonables de los parámetros y de las cantidades por las que podrían desviarse de los valores esperados. Entonces, el diseño se basa en los valores esperados -o en unos valores conservadores pero de extensión factible de los valores esperados- pero se han previsto medidas para hacer frente a la ocurrencia de cargas o de resistencias que se encuentran por fuera del rango de diseño. Durante la construcción y operación de la instalación, las observaciones de su desempeño se efectúan, de forma que se puedan ejercer acciones correctivas apropiadas. Esto no es simplemente una cuestión de diseño para un conjunto de condiciones esperadas, y hacer algo para solucionar los problemas que puedan surgir. Se trata de considerar los efectos del posible rango de valores de los parámetros y tener en marcha un plan para enfrentar acontecimientos que están fuera del rango esperado. Se requiere la participación permanente de los diseñadores durante la construcción y la operación de las instalaciones.

Los últimos años han mostrado una tendencia a poner el tratamiento de la incertidumbre sobre una base más formal, en particular mediante la aplicación de los resultados de la teoría de la confiabilidad a la Ingeniería Geotécnica.

La teoría de la confiabilidad evolucionó de la industria estructural, aeroespacial y manufacturera; ha requerido una adaptación especial para hacer frente al entorno geológico. El enfoque en la confiabilidad no remueve la existencia de las incertidumbres y no alivia la 'necesidad de juicio de ingeniería' en el trato con el mundo. Este enfoque proporciona una forma de cuantificar las incertidumbres y manejarlas de forma consistente. En esencia, son un esquema de contabilidad. El ingeniero geotécnico experimentado ya ha dado el primer paso en la aplicación de ´los métodos de confiabilidad -reconociendo que el mundo es imperfectamente cognoscible. El resto del proceso es descubrir cómo hacer frente a esa imperfección.

Hoy en día el ingeniero geotécnico debe ser cada vez más capaz de lidiar con la confiabilidad. Hay varias razones para esto:

  1. Las presiones regulatorias y legales fuerzan a los ingenieros geotécnicos a proporcionar respuestas sobre la confiabilidad de sus diseños. Esto es más notable en áreas fuertemente reguladas de la práctica, como la energía nuclear, la tecnología marina, y la eliminación de residuos. Es una tendencia que afectará a otras áreas de práctica en el futuro. 
  2. Las decisiones de gestión sobre la conveniencia de continuar con un curso de acción proyectado, la forma de financiarlo, y cuándo programarlo, cada vez más se basan en el análisis estadístico de decisión. Un breve repaso de casi cualquier libro de texto sobre la gestión financiera moderna demuestra que los gerentes de hoy están capacitados para evaluar el valor de un curso de acción a partir de estimaciones probabilísticas del valor del dinero, las ganancias futuras, los costos de producción, y así sucesivamente. El desempeño de las obras mayores de la Ingeniería Civil entra en esas evaluaciones, y así también, deben ser evaluados probabilísticamente. 
  3. Los códigos de construcción modernos se basan en los enfoques de Diseño por Carga y Factor de Resistencia (LRFD), que a su vez, se basan en métodos de confiabilidad. Estas técnicas se están ahora introduciendo en áreas como el diseño de pilas para las estructuras viales. 
  4. La teoría de confiabilidad proporciona una manera racional para hacer frente a algunas de las preguntas controvertidas históricamente. Por ejemplo, ¿cuánta confianza debería el ingeniero colocar en un factor de seguridad calculado? ¿Cómo debe el ingeniero cuantificar la creencia bien fundada de que el valor del ángulo de fricción es más confiable que el de la cohesión? ¿Cómo puede el ingeniero demostrar que un diseño basado en más datos y datos más consistentes es más robusto que uno basado en información parcial - y entonces vale la pena el costo adicional de obtener estos datos? ¿Cómo puede el ingeniero distinguir entre las diferentes consecuencias de la falla o separar los casos en los que ocurre una falla progresiva, de aquellos en los que se espera un comportamiento promedio? 

Los enfoques de confiabilidad proporcionan conocimientos en estas áreas y, en algunos casos, los procedimientos numéricos para analizarlos.

Existe una distinción relacionada entre el enfoque frecuentista (de la probabilidad) y el enfoque de grados de creencia en la incertidumbre. El concepto frecuentista implica que las incertidumbres descritas por el análisis probabilístico y estadístico, tienen que ver con una larga serie de eventos similares en el mundo. El concepto de grado de creencia, indica que las incertidumbres tienen que ver con la confianza que uno aplica en conocer el estado del mundo. La disputa entre las dos escuelas puede llegar a ser a veces un argumento filosófico precioso, pero hay una diferencia significativa que tiene implicaciones prácticas. Por ejemplo, una compañía de seguros vende seguros de vida desde un punto de vista frecuentista basado en las tablas actuariales. El consumidor compra estos seguros de vida sobre la base de un grado de creencia en su propia longevidad. La modelación de los problemas geotécnicos implica ambos tipos de razonamiento, pero los ingenieros geotécnicos se sienten más a gusto con la idea del grado de creencia de la incertidumbre que con la visión frecuentista.

Esta distinción entre la frecuencia y la creencia puede ser elaborada considerando la diferencia entre las incertidumbres que son inherentes a un proceso y las que reflejan la falta de conocimiento. Un buen ejemplo es la diferencia entre las incertidumbres asociadas con un par de dados y las de una baraja de cartas. Un  dado equilibrado en todas sus caras es un método de aleatorización. El número que va a aparecer es al azar, y no existe ningún conocimiento que se pueda obtener prácticamente acerca de cómo el dado es lanzado, ni cuándo, ni con qué fuerza se afecta la capacidad de predecir el resultado. Este tipo de incertidumbre subyacente regula algunos procesos naturales. La desintegración radiactiva es un ejemplo, la mecánica cuántica demuestra que es imposible saber con precisión qué átomo se desintegra o cuándo va a decaer. El mazo de cartas tipifica el otro tipo de incertidumbre. El mazo tiene un arreglo definitivo, y cualquiera que observe con honestidad la baraja, se encuentra con el mismo orden de las cartas. La incertidumbre radica enteramente en nuestra ignorancia del orden de arreglo de la baraja, y juegos sofisticados como el póker y el bridge tienen mucho que ver con tratar de obtener información sobre la disposición de las cartas del juego de la mano. Una gran parte de la incertidumbre geológica es de este tipo, pues en todos los sitios hay un arreglo definitivo de los materiales geológicos y sus propiedades, pero no sabemos cual es.

DESARROLLO HISTÓRICO DE LOS MÉTODOS DE CONFIABILIDAD EN INGENIERÍA CIVIL

Para encontrar los antecedentes del concepto actual de riesgo y los métodos de confiabilidad en ingeniería civil, hay que mirar de nuevo al campo aliado de la confiabilidad estructural y a pioneros como Alfred Freudenthal (1906-1977). En los años 1950s y 1960s, Freudenthal publicó una serie de documentos fundamentales en los que aparecieron por primera vez muchos de los preceptos del riesgo moderno y la teoría de confiabilidad (Freudenthal 1951, Freudenthal et al, 1966;. Freudenthal y Gumbel 1956). Entre éstos se encontraba el concepto de la descripción estadística de las propiedades del material, la representación estado-espacio de las condiciones de falla, y los índices de confiabilidad no paramétricos.

El trabajo de Freudenthal fue seguido por una generación de investigadores en ingeniería estructural, incluyendo A.H.-S. Ang, C.A. Cornell, O. Ditlevsen, A.M. Hasofer, N. Lind, y R. Rackwitz. A principios de los 1970s, el campo emergente de la confiabilidad estructural comenzó a extenderse a la investigación en Ingeniería Geotécnica.

Los principales programas del gobierno y las tendencias económicas de los años 1970s y 1980s ejercieron una influencia significativa en la dirección del campo. Las más importantes fueron el marco regulatorio que rodea la generación de energía nuclear, la eliminación de los residuos nucleares y los sólidos, y la crisis energética de la década de 1970, lo que llevó al desarrollo de las instalaciones de producción de gas y petróleo en aguas de profundidad sin precedentes. Cada una de estas tendencias incrmentó la atención sobre las incertidumbres relativas a la caracterización de sitio y las evaluaciones cuantitativas de comportamiento geotécnico. Otros intereses industriales en el riesgo geotécnico y la confiabilidad, provienen de la minería a cielo abierto, donde las altos taludes de roca son diseñados con bajos factores de seguridad, y la seguridad sísmica, donde las líneas de vida y otras instalaciones críticas pueden ser corrompidas por movimientos de tierra poco frecuentes pero violentos.

Con la falla de la represa Teton en 1976, las agencias de construcción de represas en los Estados Unidos se involucraron fuertemente en la evaluación de riesgos. Las fallas de represas y las casi-fallas sin pérdida de contención, además de afortunadamente no ser comunes, están lejos de ser desconocidas.

La siguiente figura, muestra la frecuencia de las fallas recientes de represas, que ha llevado a algunos trabajadores a la conclusión de que el riesgo anual de falla de una represa moderna, ausente de otra información, es del orden de 10-5 a 10-4 por año/represa ( Baecher et al. 1 980). Hoy en día, la U. S. Bureau of Reclamation se ha convertido en el principal exponente de la evaluación del riesgo de las represas, y el Cuerpo de Ingenieros de los EE.UU. ha producido numerosos talleres y manuales para orientar al personal y a los contratistas a aplicar la teoría de la confiabilidad en sus proyectos. Ellos han desarrollado amplio experticio técnico en la metodología riesgo.

Frecuencia de fallas recientes de represas (Rajapakse, R., 2008)

LA CONFIABILIDAD

Confiabilidad designa la probabilidad de que un sistema cumpla satisfactoriamente con la función para la que fue diseñado, durante determinado período de tiempo y bajo las condiciones especificadas de operación. De esta forma, un evento que interrumpa ese funcionamiento se denomina falla.

El desarrollo de las concepciones y técnicas para el análisis de confiabilidad de componentes, equipos y sistemas ha estado asociado al desarrollo de tecnologías complejas y de alto riesgo, tales como la aeronáutica, militar y nuclear.

Un incremento de la confiabilidad (o del Factor de Seguridad) conlleva, en general, el  aumento a corto plazo de los costos. Pero este aumento de la confiabilidad puede revertirse en ganancia en un plazo mayor, y puede significar, por otra parte, una reducción de riesgos para la salud y la vida de las personas, y para el medio ambiente. El aumento de los costos debe compensarse con la disminución del riesgo, es decir, se debe establecer una adecuada relación entre el costo y el beneficio que se obtendrá, con el fin de no exagerar ni escatimar las provisiones de seguridad.

“La Teoría de la Confiabilidad se ocupa principalmente de las fallas de los sistemas. Sin embargo, no indaga tanto en los fenómenos que las causan sino en la frecuencia con que ocurren. Por lo tanto no es una teoría física de las fallas, sino una teoría estadística, una teoría de probabilidades.”

El objetivo del análisis de confiabilidad estructural es determinar la probabilidad de falla de estructuras tomando en consideración las incertidumbres asociadas con las resistencias y cargas. La respuesta de una estructura se evalúa por medio de modelos basados en datos estadísticos recopilados previamente.

Los análisis de confiabilidad tratan de la relación entre las cargas que un sistema puede sufrir y la capacidad que éste tiene para soportarlas. En geotecnia tanto las cargas como la resistencia son inciertas, por lo tanto, el resultado de esta interacción también es incierto.

A nivel de la Estadística, se define la Confiabilidad a como:

a = 1 - P(r)

donde P(r) es la probabilidad de que se presente la falla.

La confiabilidad se expresa como índice de confiabilidad β, que se relaciona con una probabilidad de falla. Se puede entender en este contexto que la falla incluye no solamente fallas catastróficas sino cualquier diferencia inaceptable entre el comportamiento esperado y el observado.

El índice de confiabilidad β, del coeficiente o factor de seguridad (FS), es definido por la siguiente expresión, considerando que el FS crítico es igual a 1,0:


Donde E[FS] es el valor esperado del factor de seguridad, es decir, el factor de seguridad calculado con los parámetros medios de las variables independientes y σ[FS] es la desviación estándar del factor de seguridad.

El método relaciona el índice de confiabilidad β con la probabilidad de ruptura, lo que permite una evaluación más consistente de la estabilidad. La expresión de β es usada en forma general para cualquier distribución de probabilidad del factor de seguridad, sin embargo, es común privilegiar el uso de la distribución normal (por ejemplo la distribución log normal). Esto implica que las distribuciones de la resistencia del suelo o de la roca y de las cargas aplicadas también sean normales.

La probabilidad de falla está dada por la porción del área bajo la curva unitaria de distribución de frecuencia (función densidad de probabilidad) del FS correspondiente a los valores de FS inferiores a 1.0. Esta se puede determinar de cualquier tabla de función de distribución de probabilidades normal con media 0 y desviación estándar 1 o utilizando herramientas computacionales como el Excel®.

Una de las principales dificultades a la hora de hacer análisis de confiabilidad está en definir los niveles de seguridad aceptables, es decir, cuál es la probabilidad de falla máxima que se puede tolerar para una estructura. Actualmente no existe un consenso sobre cuál es este valor de referencia, y son pocas las propuestas presentadas en las cuales se definan límites de decisión. En este sentido, la propuesta más conocida es la presentada por USACE [en "Risk-Based Analysis in Geotechnical Engineering for Support of Planning Studies", ETL 1110-2-556, U. S. Army Corps of Engineers, 1999.] para niveles del índice de confiabilidad β y la probabilidad de ruptura (P[r]) o de falla asociada, como se muestra en la siguiente tabla.

Indices de Confiabilidad b objetivo y probabilidades de falla admisibles

De acuerdo a la tabla anterior, con este criterio la probabilidad de falla crítica es del orden de 6x10-3, que equivale a un índice de confiabilidad de 2.5, por lo cual se espera que estructuras con índices de confiabilidad b superiores a 2.5 presenten un desempeño por encima del promedio de las estructuras.

Relación entre el Indice de Confiabilidad β y la Probabilidad de Falla pf (US Army Corps of Engineers, 1997)

LA INCERTIDUMBRE EN LA INGENIERÍA GEOTÉCNICA

Fuentes de incertidumbre en las propiedades geotécnicas del suelo (adaptado de Whitman, 1996)

Los procesos y análisis en la Ingeniería Geotécnica poseen un elevado nivel de incertidumbre generada por diversas fuentes, las cuales se pueden clasificar en incertidumbre de los datos y de los modelos (como se aprecia en la figura anterior), o bien, en las siguientes categorías:

  • La variabilidad natural o incertidumbre física está asociada con la aleatoriedad inherente a los procesos naturales, manifestándose como variabilidad en el tiempo para fenómenos que toman lugar en un único lugar (variación temporal), o variabilidad en el espacio para eventos que se producen en diferentes lugares al mismo tiempo (variación espacial), o variaciones tanto en el espacio como en el tiempo. Esta variabilidad natural se aproxima usando modelos matemáticos simplificados o modelos físicos, los cuales solo proporcionan una aproximación al fenómeno natural en el mejor de los casos.
  • La incertidumbre epistémica ó estadística (sistemática) es dependiente de la cantidad de datos disponibles para el análisis y se incrementa cuanto mayor es la ausencia de información. En la mayoría de los casos la modelación probabilística de las incertidumbres involucradas en el problema se hace asignándoles una función de probabilidad, con parámetros de distribución estimados del análisis de la información recopilada y/o en base a información subjetiva o a la experiencia pasada. Estos parámetros son dependientes de la cantidad de datos recopilados. Además, influye también el modelo matemático elegido para ajustar los datos observados, ya que la aceptación del modelo proviene de una prueba de bondad de ajuste con un adecuado nivel de significancia. Por otro lado, al usar dicho modelo matemático en el cálculo de la confiabilidad estructural, podría suceder que el punto de falla más probable tenga sus coordenadas en las colas de la distribución, donde hay muy poca información y donde la probabilidad de falla es muy sensitiva (ver la siguiente figura). Generalmente, ésta incertidumbre es atribuida a la carencia de datos, ausencia de información acerca de eventos y procesos, o a la falta de entendimiento de las leyes físicas que limitan la habilidad para modelar el mundo real. En ocasiones, esta incertidumbre puede ser llamada también subjetiva o interna. En aplicaciones geotécnicas, la incertidumbre estadística o epistémica se puede dividir en tres subcategorías: 
  1. La incertidumbre en la caracterización del sitio depende de la adecuada interpretación que se hace de la geología subsuperficial. Esto resulta de la incertidumbre de los datos y de la exploración, incluyendo errores de medición, inconsistencia y heterogeneidad de los datos, manipulación de los datos y errores de transcripción, e inadecuada representatividad del muestreo debido a limitaciones de tiempo y espacio. Otro factor que se debe considerar son las limitaciones económicas a la hora de hacer la exploración y el muestreo.
  2. La incertidumbre de los modelos depende del nivel de precisión con que el modelo matemático escogido representa la realidad. Esta incertidumbre refleja la inhabilidad de un modelo o técnica de diseño para representar, precisamente, el verdadero comportamiento físico del sistema, o la inhabilidad del diseñador para identificar el mejor modelo.
  3. La incertidumbre en los parámetros depende de la precisión con que los parámetros del modelo pueden ser estimados. Resulta de la inexactitud en la determinación de los valores de los parámetros a partir de ensayos o calibración de datos y es exacerbado por el número limitado de observaciones, que producen imprecisión estadística.

Fuentes de incertidumbre estadística
Incertidumbre desde la perspectiva cuantitativa
Contribución de las fuentes de incertidumbre

A manera de ejemplo consideremos el muestreo SPT en un depósito de arena suelta. Las fuentes de incertidumbre aleatoria en la resistencia SPT medida incluirían la variabilidad natural del depósito de suelo y los errores aleatorios de la prueba, como los causados por un defecto aislado en el suelo (como un canto rodado errático). Las fuentes de incertidumbre epistémica podrían incluir equipos no estándar (como el tamaño del muestreador, muestreadores o varillaje deformados, longitud del varillaje, sistema de martinete, peso de martillo, etc, no ajustado al estándar SPT), y los datos insuficientes para formar estadísticas razonables, tal como una sola perforación en un sitio grande. Es importante observar que la incertidumbre epistémica generalmente se puede reducir mediante la adquisición de datos adicionales o mejoras en los procedimientos de medición. la incertidumbre aleatoria, por otro lado, es inherente a la variabilidad y no puede reducirse con información adicional.

Las fuentes de incertidumbre en la obtención de parámetros del suelo son las siguientes:

  • Error estadístico debido a la cantidad insuficiente de ensayos, de mediciones piezométricas, etc. Se sabe que cuanto menor es el número de ensayos, mayor es la probabilidad de producir estimativos de parámetros diferentes de aquellos presentes en el campo. Muchos autores presentan indicaciones buscando minimizar esta condición.
  • Datos tendenciosos (sesgos), que son aspectos del comportamiento real persistentemente alterados por los ensayos, resultados de instrumentación etc. Se pueden citar como ejemplos de estos factores: el remoldeo de las muestras, las diferencias de tipo de solicitación en los ensayos y en el campo, las diferencias en la velocidad de carga en los ensayos y en el campo, etc.
  • Errores de ensayo (ruidos) son aquellos asociados a la precisión de calibración y mediciones, la exactitud de las lecturas, etc. La minimización de estos errores es obtenida a través de la correcta especificación, calificación del personal y de equipos, acompañamiento de los ensayos y mediciones;
  • Variabilidad espacial (natural o inherente) de los parámetros, que es la diferencia real de características del comportamiento debidas a diferencias de composición, meteorización e historia de tensiones entre un punto y otro.

Las dos primeras fuentes contribuyen al denominado “error sistemático”, que actúa independiente de la posición o del tamaño del volumen de análisis o superficie de falla, y afecta principalmente la media. Aquí, el aumento del número de ensayos (para disminuir el error estadístico) se debe evaluar por la experiencia del ingeniero (para compensar los sesgos). Las dos últimas fuentes contribuyen principalmente a la dispersión de los datos.

La variabilidad de los parámetros geotécnicos que tienen influencia en los procesos de análisis de riesgo por deslizamiento puede ser manejada mediante técnicas estadísticas y probabilísticas. Cuando no se dispone de un número suficiente de ensayos, se puede, con carácter preliminar, utilizar coeficientes de variación estimados (desviación estándar sobre la media), a partir de valores típicos que han mostrado tener poca sensibilidad temporal y espacial. En la siguiente tabla se presentan a manera de ejemplo, los rangos típicos de coeficientes de variación de los parámetros geotécnicos de interés para análisis de estabilidad de taludes.

Valores típicos del Coeficiente de Variación

Según USACE, los valores de los momentos probabilísticos pueden ser estimados de varias formas, entre las cuales se pueden citar:

  • Análisis estadísticos de determinaciones en ensayos del parámetro deseado,
  • Ensayos índice que pueden ser correlacionados con el parámetro deseado, y
  • Basados en criterio y experiencia cuando no hay datos disponibles.

Las dos últimas opciones de estimación deben ser evaluadas con sumo cuidado, ya que el nivel de incertidumbre se incrementa gradualmente desde la primera hacia las últimas. Esto implica que cuando se diseña una estructura nueva utilizando correlaciones o datos basados en la experiencia, esto solo se pueda aceptar mediante un incremento de los factores de seguridad o mediante un ajuste en los parámetros de diseño (reduciendo la resistencia).

En el caso de análisis de confiabilidad, la utilización de correlaciones o datos definidos por la experiencia el problema puede ser enfrentado asumiendo un coeficiente de variación mayor que en el caso de los datos medidos directamente.

En adición a la variabilidad natural, y la incertidumbre epistémica, dos tipos prácticos de incertidumbre algunas veces también entran en los análisis de confiabilidad y de riesgo. Estos tienen relación con la implementación de diseños en la práctica y con los factores económicos atendiendo cálculos de relaciones costo-beneficio. Estas son incertidumbres operacionales, que incluyen aquellas asociadas con la construcción, manufactura, deterioro, mantenimiento y factores humanos no considerados en los modelos ingenieriles de desempeño; e incertidumbres de decisión que describen la inhabilidad de los diseñadores para conocer o identificar objetivos sociales o prescribir tasas de descuento social, la longitud de un horizonte de planeación, tendencias temporales deseables de consumo e inversión o la aversión social al riesgo.

LOS MÉTODOS PROBABILÍSTICOS

Los métodos probabilísticos son aquellos que permiten la evaluación de la distribución de probabilidades de una variable dependiente en función del conocimiento de las distribuciones estadísticas de las variables independientes que la generan. 

Entre los métodos más utilizados en la estadística aplicada a la geotecnia están el método de Monte Carlo, el método de Primer Orden Segundo Momento-FOSM y el método de estimativas puntuales de Rosenblueth.

Los métodos probabilísticos constituyen herramientas robustas para la evaluación y análisis de problemas geotécnicos bajo ambientes de incertidumbre, pero requieren como datos de entrada valores de parámetros estadísticos que no son fáciles de obtener debido a las grandes incertidumbres asociadas con los procesos geotécnicos.

En los casos en que la información es escasa, los análisis de sensibilidad y de confiabilidad permiten evaluar los posibles escenarios que se pueden presentar para una determinada obra y determinar necesidades de estudios más profundos.


Es una metodología que permite determinar la función de distribución de frecuencia de la variable dependiente analizada mediante la generación de números aleatorios uniformes que representan las variables independientes envueltas. Este método considera que la variable dependiente estudiada presenta una función Y=f(X1, X2...Xn) y que son conocidas las distribuciones de probabilidad de las variables X1, X2…Xn. 

Son atribuidos valores de frecuencia a valores aleatorios de las variables X1, X2...Xn y se evalúa la función Y para estos valores. El proceso se repite de forma iterativa tantas veces como sea necesario para conseguir la convergencia de la distribución de probabilidad. Conviene resaltar que la mayoría de las técnicas para generación de valores de distribución hacen uso dela función de distribución acumulada, F(r) = P[x < r]. Por definición la función acumulada para cualquier variable continua es distribuida uniformemente en el intervalo  [0,1].

Consecuentemente, si el valor aleatorio Ru (0,1) es generado, el valor de x = r que satisface F(r)=Ru (0,1) será un valor aleatorio de la función de distribución de probabilidad f(x) dentro de F(r).

Simulación estocástica de problemas ingenieriles por el método de Monte Carlo

El método de Monte Carlo puede ser presentado como un método exacto, pues a partir del conocimiento de las distribuciones estadísticas de las variables independientes, valores de estas variables podrían ser obtenidos por medio de un generador de números aleatorios y valores de la variable independiente calculados a partir de estos. Cuando este proceso sea repetido N veces, la distribución de probabilidad (forma y magnitud) de la variable dependiente sería obtenida, para (1-α)% de confianza. A partir de esta distribución pueden ser calculados sus parámetros estadísticos tales como media, varianza, probabilidades acumuladas, etc.

Este método utiliza el muestreo aleatorio para simular artificialmente el comportamiento de un sistema. En esta aproximación el analista crea un gran número de juegos de valores generados aleatoriamente para los parámetros probabilísticos y se calcula la función de desempeño para cada juego de datos de forma determinística, Finalmente se extrae la información estadística de los resultados de las simulaciones. Los valores de índice de confiabilidad β y probabilidad de falla pf pueden ser calculados directamente de los resultados de los juegos de datos. Este método tiene como ventaja la simplicidad conceptual, pero requiere un gran número de juego de valores de la función de desempeño para obtener una precisión adecuada. A diferencia de otros métodos, la simulación de Monte Carlo no da luces sobre la contribución relativa de los parámetros aleatorios.

Método FOSM (First-Order, Second Moment)

Este método usa los primeros términos de una expansión de la serie de Taylor de la función de desempeño para estimar el valor esperado y la varianza de la función de desempeño. Este método supone que (xi - μxi) de cada una de las variables aleatorias es pequeña (xi = variable, μ xi= valor esperado de la variable) por lo que el cuadrado o potencias mayores son aún más pequeñas y se pueden ignorar. Es llamado de segundo momento porque la varianza es de la forma de segundo momento y es el resultado estadístico de mayor orden usado en el análisis. El valor esperado de la función de desempeño E[g] se obtiene como:


es decir, el valor esperado de la función de desempeño E[g] se obtiene evaluando el valor medio de cada variable aleatoria μxi en la función de desempeño g. Suponiendo que las variables aleatorias son independientes entre si, la varianza de la función de desempeño V[g] queda como:


Si el número de variables aleatorias es n, este método requiere evaluar n derivadas parciales de la función de desempeño o desarrollar una aproximación numérica usando la evaluación en 2n+1 puntos.

Método de las Estimativas Puntuales

Rosenblueth [en “Point estimates for probability moments,” Proc. Nat. Acad. of Sc, vol. 72, no. 10, 1975. pp. 3812–3814.] propuso un método aproximado que simplifica mucho la tarea de estimar la media y la  desviación estándar del factor de seguridad y solamente compromete ligeramente la exactitud cuando las dispersiones de las variables envueltas son muy grandes. Consiste en estimar los momentos (media, desviación estándar, coeficiente de asimetría, etc.) de la variable dependiente en función de las variables aleatorias independientes, para las cuales se conocen por lo menos dos momentos, media y desviación estándar (o por lo menos sus estimativas), sin la necesidad de conocer las distribuciones de probabilidad completas de las variables independientes o de la dependiente.

Suponiendo que exista una función bien definida que una la variable dependiente a las independientes, con procedimientos simples se puede trabajar con la variabilidad sin introducir complejidades numéricas muy grandes en el análisis determinístico. Se trata de ponderar la participación de cada variable, calculando dos valores de la función de densidad de probabilidad arbitrariamente escogida para cada variable independiente (Xi), lo que resultará en concentraciones Pi donde se tendrán puntos de estimativa de la variable dependiente (F), que servirán para el cálculo de los momentos de F.

Para el caso en que Y depende de n variables aleatorias y considerando que las n variables sean no correlacionadas entre sí, se pueden obtener las estimativas de la media y de la desviación estándar de F mediante las fórmulas 


Los valores de fi son obtenidos con la aplicación de la función que define la dependencia entre F de las variables independientes, sustituyendo alternadamente los valores de esas variables por Xj±σj con j=1,2,....n, se obtienen de esa forma los 2n valores de fi.

En el método de estimativas puntuales, se toman combinaciones de los valores en las estimativas puntuales máximas (Xi+σ[Xi]) y mínimas (Xi-σ[Xi]) para cada variable independiente. Por tanto, son necesarios 2n análisis separados. En el caso de análisis de estabilidad de taludes, a cada análisis se hace una nueva búsqueda de la superficie crítica, la cual puede diferir significativamente de aquella calculada con los valores medios del método FOSM.

Asumiendo una distribución normal (Gauss) para los valores de F, que podría ser la función del factor de seguridad de un problema dado, calculados con las variables en las estimativas puntuales, el valor esperado E[F] puede ser calculado por el primer momento de la distribución:


Combinando los resultados de estos métodos probabilísticos con el índice de confiabilidad β, resulta fácil determinar la probabilidad de falla P(r) de un sistema. En cualquier caso P(r) es la probabilidad de que el factor de seguridad sea inferior a la unidad.

Ejemplos de aplicación:


Continúa en:

La Incertidumbre y el Riesgo en el Diseño Racional en la Ingeniería Geotécnica (II)

Otros enlaces de interés sobre el tema en este blog:

Referencias:


Guardar en PDF

jueves, 15 de noviembre de 2012

Apuntes de Geotecnia - Índice de Entradas 1-50


A continuación, se presenta el índice de enlaces a las primeras 50 entradas del blog:

  1. La Ingeniería Geotécnica
  2. El Agua en el Suelo
  3. La Consistencia del Suelo
  4. GSI (1) - Quebrada El Perro (1) - Geomorfología (1)
  5. GSI (1) - Quebrada El Perro (2) - Geomorfología (2)
  6. GSI (1) - Quebrada El Perro (3) - Geología y Clima
  7. GSI (1) - Quebrada El Perro (4) - Suelos de Origen Volcánico
  8. GSI (1) - Quebrada El Perro (5) - Dinámica Torrencial y Obras de Control
  9. Consistencia del Suelo - Límites de Atterberg - Historia
  10. Consistencia del Suelo - Límites de Atterberg - Albert Mauritz Atterberg
  11. Consistencia del Suelo - Límites de Atterberg - Límite Líquido
  12. Consistencia del Suelo - Límites de Atterberg - Límite Plástico
  13. Consistencia del Suelo - Límites de Atterberg - Límite de Contracción
  14. Consistencia del Suelo - Límites de Atterberg - Índices
  15. La Plasticidad del Suelo - Límites de Atterberg
  16. Historia de la Geotecnia - 01 - Introducción
  17. Historia de la Geotecnia - 02 - La Ingeniería Geotécnica Antes del Siglo XVIII
  18. Historia de la Geotecnia - 03 - La Ingeniería Geotécnica Antes del Siglo XVIII
  19. Historia de la Geotecnia - 04 - La Ingeniería Geotécnica Antes del Siglo XVIII
  20. Historia de la Geotecnia - 05 - La Ingeniería Geotécnica Antes del Siglo XVIII
  21. Historia de la Geotecnia - 06 - La Ingeniería Geotécnica Antes del Siglo XVIII
  22. Historia de la Geotecnia - 07 - La Ingeniería Geotécnica Antes del Siglo XVIII
  23. Historia de la Geotecnia - Precursores de la Ingeniería Geotécnica
  24. Historia de la Geotecnia - La Ingeniería Geotécnica Antes del Siglo XVIII - Maravillas del Mundo Antiguo
  25. Historia de la Geotecnia - Historia de la Ciencia del Suelo 01
  26. Historia de la Geotecnia - Historia de la Ciencia del Suelo 02
  27. Historia de la Geotecnia - Historia de la Ciencia del Suelo 03
  28. Historia de la Geotecnia - El Legado de Terzaghi en la Ingeniería Geotécnica
  29. Historia de la Geotecnia - Terzaghi y la Mecánica de Suelos
  30. Historia de la Geotecnia - El Ascenso de la Geotecnia en 1936
  31. Historia de la Geotecnia - Terzaghi, el ingeniero y el escándalo Fillunger
  32. Historia de la Geotecnia - 08 - La Ingeniería Geotécnica Antes del Siglo XVIII
  33. Historia de la Geotecnia - De la Ingeniería Geológica a la Geotécnica
  34. Historia de la Geotecnia - La Ingeniería Geotécnica en América del Sur
  35. Historia de la Geotecnia - Paradigmas de la Ingeniería Geotécnica
  36. La Ingeniería de Suelos
  37. Historia de la Geotecnia - La Ingeniería Geotécnica Antes del Siglo XVIII - El Oráculo de Delfos
  38. Historia de la Geotecnia - Citas Destacadas de Terzaghi
  39. Historia de la Geotecnia - La Geotecnia en el contexto de la vida - Especulación y recuerdos
  40. Historia de la Geotecnia - Terzaghi y el SPT
  41. Historia de la Geotecnia - Sir Alec Westley Skempton
  42. Racionalismo y Empirismo en la Práctica de la Ingeniería Geotécnica
  43. Historia de la Geología
  44. Historia de la Geotecnia - Contribuciones de Suecia a la Ingeniería Geotécnica
  45. Historia de la Geotecnia - Terzaghi y el Método Observacional
  46. Historia de la Geotecnia - La Consolidación de la Mecánica de Suelos: 1920-1970 por Ralph B. Peck
  47. 05-11-2011 6:15 a.m. - Deslizamiento en el Barrio Cervantes de Manizales, Caldas - Colombia
  48. El Diseño Racional en la Ingeniería Geotécnica (I)
  49. Historia de la Geotecnia - Terzaghi y el Diseño Racional
  50. El Diseño Racional en la Ingeniería Geotécnica (II)

Paisaje torrencial en el municipio de Riosucio, Caldas (Colombia)


Guardar en PDF

miércoles, 14 de noviembre de 2012

El Diseño Racional en la Ingeniería Geotécnica (II)


Primera parte en ...


Diseño Racional en la Ingeniería Geotécnica


Ahora se tratarán dos casos de aproximación del Diseño Racional a la Ingeniería Geotécnica, el primero de ellos referido al diseño moderno de pavimentos y el segundo caso al diseño de cimentaciones superficiales y especialmente Zapatas. Estos sirven para ilustrar la creciente importancia de la aplicación del método sistemático y riguroso (aplicación de una rutina monótona), a favor de implementar correctamente las teorías de confiabilidad que permiten construir modelos geotécnicos simplificados y orientados hacia un comportamiento más real del terreno.

Naturaleza cíclica de las cargas que actúan en un pavimento


El diseño, análisis y evaluación estructural de las condiciones de los pavimentos, comúnmente se basan en el análisis de la teoría elástica multicapas; este acercamiento ofrece la posibilidad de una solución racional al problema de diseño. El éxito de esta aproximación depende de la precisión y la manera en que las propiedades de los materiales son evaluadas y utilizadas. 
Se ha prestado mucho énfasis a los procedimientos de diseño en los pavimentos; éstos han cambiado desde los métodos empíricos hasta los métodos mecanicistas, basados en el acercamiento más racional en su diseño (Monismith, 1962). Las principales razones de este cambio son las condiciones cambiantes en la estructura del pavimento ante la solicitación móvil de los vehículos cargados, ya que experimentan dos tipos de esfuerzos: los estáticos por sobrecarga y los dinámicos causados por el movimiento vehicular. Otras consideraciones importantes son el desarrollo de nuevos materiales utilizados en la construcción, nuevas configuraciones de pavimentos y la disponibilidad que nos da la utilización de las computadoras. Dentro de los métodos racionales se encuentran los procedimientos de diseño mecanicistas; su funcionamiento es estimado y basado en las propiedades mecánicas fundamentales de las capas del pavimento. (Zaman et al., 1994) 
El acercamiento mecanicista en el diseño involucra el análisis teórico y el cálculo de esfuerzos y deformaciones en lugares críticos, como resultado de las aplicaciones de carga originadas por las ruedas cargadas. 
Los materiales que constituyen los pavimentos, incluyendo las terracerías y el terreno de cimentación, se ven sometidos a cargas dinámicas de diversas magnitudes que le son transmitidas por el tránsito vehicular. 

El patrón de esfuerzos inducidos a una estructura de pavimento como resultado del tránsito de vehículos es muy complejo. Un elemento de pavimento está sujeto a pulsos de carga que involucran componentes de esfuerzos normales y cortantes. Los esfuerzos son transitorios y cambian con el tiempo conforme la carga avanza. El esfuerzo cortante cambia de sentido conforme la carga pasa, provocando así una rotación de los ejes de esfuerzos principales. (Lekarp et al., 1997)
El concepto de módulo de resiliencia está ligado invariablemente a un proceso de carga repetida. El parámetro Módulo de Resiliencia, a través de las investigaciones, se ha constituido como un elemento fundamental en el diseño de pavimentos y ha despertado gran interés en el desarrollo de procedimientos de diseño con bases mecanicistas; los cuales lo introducen como un elemento que caracteriza de manera racional el comportamiento esfuerzo-deformación de los materiales que conforman la estructura. Otra gran ventaja es que, con el avance en la computación, se ha podido someter al análisis teorías que pueden aplicarse en forma práctica a las condiciones de diseño. 
Actualmente existe una gran tendencia a utilizar los métodos de diseño mecanicistas, ya que muchas agencias están incorporando este parámetro para sus diseños; una de ellas es la guía AASHTO (1993), en cuya aplicación se emplean y se toman en cuenta muchos aspectos como: tránsito, comportamiento del pavimento durante su vida útil, características del suelo que es empleado en las diferentes capas, condiciones ambientales, drenaje, confiabilidad, etc. Este diseño se efectúa mediante nomogramas de diseño o catálogos de estructuras. 

Además, por el amplio uso de la computadora, la tendencia es a utilizar directamente los nuevos métodos de diseño; empleando modalidades distintas en el análisis estructural, considerando sistemas multicapas o mediante la aplicación de programas que emplean el elemento finito.

Se ha llevado a la práctica estudios que tratan de correlacionar los valores de Módulo de Resiliencia con el VRS (Valor de Resistencia de la Subrasante, obtenido a partir del ensayo de placa y también correlacionado con el CBR), muchas de estas correlaciones no han tenido la respuesta que se esperaba, respaldando la correlación con un parámetro intermedio. La desventaja que presentan estas correlaciones es simple porque los errores se van generando, cada vez que es adicionada una correlación (Soutgate y Mahboub, 1994). 
Por la tendencia en el diseño de pavimentos, el módulo de resiliencia esta considerado a ser el sustituto del VRS, dado que existe una preferencia por el desarrollo de métodos racionales, basados en la caracterización de las propiedades mecánicas de los materiales que conforman la estructura del pavimento. Estos métodos permiten relacionar los niveles de solicitación de las cargas que son trasmitidas al sistema estructural. La respuesta obtenida permite predecir en principio, los niveles de deterioro esperados a partir de ensayos probados en laboratorio y del comportamiento observado en el campo. 

Es muy importante tener en cuenta las propiedades mecánicas de los materiales que constituyen las capas del pavimento, ya que de ellas depende la obtención del módulo de resiliencia (Witczak et al., 1995). 

Dado que la carga aplicada usualmente es pequeña, la prueba del módulo de resiliencia es una prueba no destructiva y la misma probeta puede ser utilizada para varios ensayos bajo cargas y condiciones ambientales distintas.

Prueba triaxial del Módulo de Resiliencia

Diseño racional de Cimentaciones superficiales


Cada estructura de ingeniería, sea un edificio, un puente, un pavimento de carretera o una vía de ferrocarril, consta de una superestructura (por encima del suelo) y de una cimentación (por debajo de la superficie del suelo).

Fundación Superficial - Zapata Aislada

La función de la fundación es la de transmitir la carga de la superestructura al suelo o la roca subyacente, cualquiera sea el caso. Un diseño adecuado de la cimentación tiene que asegurarse de que ningún componente ni de la superestructura o de la fundación, experimente peligro de ningún tipo en este proceso de transmisión de carga.

El método convencional de diseño de una zapata es el de asumir este cimiento como rígido y la distribución de la presión de contacto en la superficie de contacto entre la base de una cimentación y el suelo de soporte como plana, es decir, uniforme o variando uniformemente, dependiendo de si la fundación soporta una carga simétrica o excéntrica. Esta suposición de una distribución de la presión de contacto plana, está lejos de la realidad y, por tanto, para ser realistas en el diseño, la flexibilidad de la zapata y el tipo de suelo (que en conjunto dan lugar a una distribución variable de la presión de contacto) debe ser considerada (Kurian, 1992).

Debido al gran crecimiento de la capacidad informática y debido a los obstáculos planteados por las soluciones clásicas, los métodos numéricos (diferencias finitas, elementos finitos, etc.) han acudido en ayuda del diseñador de fundaciones en la forma de paquetes fáciles de usar, para incorporar esta flexibilidad en el diseño de la zapata.

El sistema de cimentación comprende dos componentes: 

  1. La parte estructural de fundación, como la zapata o el pilote, y 
  2. La cimentación natural, que pretende indicar y describir el suelo.

Del mismo modo, el diseño del sistema de cimentación consta de dos fases. Estas se conocen como: 

  1. El diseño geotécnico, y 
  2. El diseño estructural. 

El objetivo del diseño geotécnico es esencialmente para llegar a las dimensiones en planta de la fundación, satisfaciendo los parámetros de diseño del suelo, tales como la capacidad portante y los asentamientos. El diseño estructural se inicia sólo después de que se completa el diseño geotécnico, el cual determina el espesor de la zapata y también cuantía y la ubicación del refuerzo. Sin embargo, el diseño tiene que ser llevado a cabo de acuerdo con los códigos locales de práctica.

Cimentaciones superficiales

Las estructuras de cimentación habitualmente se dividen en superficiales o profundas sobre la base de su profundidad con relación a su anchura, siendo la división típica el valor unitario para la comparación de la relación (Df/B), es decir, DfB≤ 1 para cimentaciones superficiales y DfB> 1 para cimentaciones profundas.

La diferencia real entre cimentaciones superficiales y profundas se basa en la respuesta estructural, así como la profundidad a la que se adopta la fundación. Así, la flexión es la acción estructural predominante en el caso de cimentaciones superficiales. El comportamiento de cimentaciones profundas podría dar lugar a cargas axiales y laterales, además de los momentos de flexión y momentos de torsión. La interacción suelo-cimiento profundo, requiere un análisis detallado. las fundaciones superficiales o zapatas pueden ser de varios tipos, y se pueden clasificar más aún en:

  • Continuas (o Zarpas (Strip Footings)): Estos cimientos se utilizan sobre todo para los muros de carga y son generalmente de sección transversal rectangular.
  • Zapatas Independientes (Aisladas o Continuas): Estas zapatas son generalmente utilizadas para columnas individuales y pueden ser de formas rectangulares o trapezoidales, cuadradas o circulares.
  • Zapatas en Cinta (Strap Footing): Estas zapatas soportan más de una columna o muro.
  • Zapatas Combinadas: Este tipo de fundación se utiliza para dos o más columnas en una fila. Estas son generalmente de forma rectangular, trapezoidal o de tipo voladizo con dos zapatas interconectadas.
  • Losas de Cimentación (Mat Foundations): Estas fundaciones soportan arreglos bidimensionales (regulares o irregulares) de columnas.
  • Placas de cimentación o balsas (Raft/Slab Foundation): Se utilizan generalmente para dos o más columnas en varias hileras, mediante placas en concreto reforzado. Estas pueden ser de forma rectangular, cuadrada, circular, octagonal o en forma anular. También pueden ser utilizadas si la presión admisible (de contacto) de diseño del suelo es muy baja. Son también comúnmente denominadas Mat Foundations.

(a) Zapata Continua (L>>B) (b) Zapata Independiente (c) Zapata Combinada
(d)  Zapata en Cinta (e)  Placa o Balsa de Cimentación

Tipos comunes de cimentaciones superficiales

Diseño Convencional y Diseño Racional

En el diseño convencional de las zapatas, la presión de tierras se asume uniforme o variando linealmente en función de si la zapata soporta carga simétrica o excéntrico. 

Presión de contacto del suelo en el Diseño Convencional

Sin embargo, la verdadera distribución de la presión de contacto, que es el resultado de la interacción del suelo-cimentación, puede estar lejos de la distribución uniforme o lineal asumida. La distribución de la presión de contacto para una zapata flexible podría ser uniforme para arcilla y arena. La presión de contacto para zapatas rígidas es máxima en los bordes, en arcilla y para zapatas rígidas en arena, es mínima en los bordes. Las distribuciones típicas de asentamiento inmediato y la presión de contacto de las zapatas flexibles y rígidas se muestran en la siguiente figura.

Distribución típica de asentamientos inmediatos y presión de contacto en suelos

De ahí que la suposición de una distribución de presión uniforme en un diseño ligeramente inseguro para zapatas rígidas en arcillas, como el máximo momento de flexión en el centro, está subestimada. Producirá un diseño conservador para zapatas rígidas sobre suelos arenosos, mientras que el máximo momento de flexión es sobreestimado. Del mismo modo, los verdaderos momentos flectores y fuerzas de cortante en zapatas flexibles podrían tener una considerable variación con los valores de diseño obtenidos con la presunción de distribución uniforme de la presión de contacto.

Por tanto, la necesidad de desarrollar un diseño de fundación eficaz y seguro, se basa en una distribución realista de la presión del suelo, obtenida por el análisis racional de la interacción, conocido como diseño elásticos o flexibles, y surge de los inconvenientes anteriores (Kameswara Rao, 1969, 1971; Kurian, 1992).

Procedimiento para el Diseño Racional de zapatas

Las zapatas se pueden diseñar como se detalla a continuación:

  1. Calcular las cargas aplicadas en la parte superior de las zapatas. Dos tipos de cargas son necesarias, una para la determinación de la capacidad portante y otra para el análisis de asentamientos.
  2. Dibujar el perfil o los perfiles del suelo mostrando la estratificación del suelo en el sitio. Dibujar un bosquejo de la fundación propuesta sobre el perfil del suelo del lugar.
  3. Marcar el nivel máximo de agua a partir de los datos de las perforaciones.
  4. Determinar la profundidad mínima de las zapatas.
  5. Determinar la capacidad de carga del estrato de apoyo.
  6. Proporcionar los tamaños de la zapata.
  7. Comprobar si hay peligro de sobrecargar los estratos del suelo a mayor profundidad.
  8. Predecir los asentamientos totales y diferenciales.
  9. Comprobar la estabilidad debido a cargas excéntricas.
  10. Comprobar la elevación de zapatas individuales y de losas de cimentación y el apoyo de zapatas en taludes.
  11. Diseñar las zapatas.
  12. Comprobar si se requiere drenaje a nivel de cimentación, impermeabilización o control de humedad (Teng, 1964; Bowles, 1996; Tomlinson, 2001).

Para un diseño racional/elástico/flexible la presión de contacto debe ser calculada a partir del análisis del enfoque de la interacción suelo-estructura mediante vigas o placas sobre una fundación elástica.

Modelado de Interacciones Suelo-Estructura para el Diseño Racional de Fundaciones

La presión de contacto se toma como una presión uniforme/lineal/plana para el diseño convencional de una cimentación. Mientras que todos los demás requisitos y precauciones anteriormente listados son esencialmente los mismos para el diseño elástico/flexible/racional de las fundaciones, el uso de un modelo realista de interacción suelo-estructura puede hacer el diseño más racional.

Mientras las zapatas se pueden modelar como una viga (unidimensional) o una placa o una concha (bidimensional) y las teorías clásicas de flexión se pueden utilizar para la representación de su respuesta, la reacción del suelo debe ser incorporada en el análisis integrado de la ecuación de interacción suelo-estructura, mediante el modelado del suelo apropiadamente, utilizando diferentes modelos como Winkler (el más conocido) o Pasternak (Crandall, 1956; Timoshenko y Krieger, 1959; Leontev y Vlasov, 1966; Rao Kameswara, 1969).

Primera parte en ...

El Diseño Racional en la Ingeniería Geotécnica (I)

Otros enlaces de interés sobre el tema en este blog:


Referencias:

Guardar en PDF