APERTURA DE CURSO 2020/21

“Pasado, presente y futuro del análisis y diseño de estructuras"

Eduardo Bayo Pérez
Dr. Ingeniero de Caminos Catedrático de Mecánica de Medios Continuos y Teoría de Estructuras
Escuela de Arquitectura Universidad de Navarra

 

Excelentísimo Señor Rector Magnífico
Excelentísimas Autoridades
Claustro Académico y Alumnos
Señoras y Señores

Cada vez que cruzamos un puente o la coronación de una presa, entramos en un edificio, nos montamos en un automóvil, volamos en un avión, navegamos en un barco, accedemos a una nave industrial o agrícola o pasamos un puente forestal, estamos utilizando y dependiendo de una estructura. Esta gran variedad de aplicaciones hace que las materias de resistencia de materiales y teoría de estructuras formen parte del curriculum académico de la mayoría de las ingenierías y la arquitectura.

El diseño estructural comienza desde antiguo siguiendo un proceso inductivo; esto es, a partir de los datos provenientes de estructuras realizadas y de la experiencia acumulada se aprende y generaliza para otros casos. Se sabía qué hacer (y cómo hacerlo) para que una estructura no fallara, pero no se sabía por qué. Sin embargo, es lógico pensar que algunas reglas debían transmitirse entre generaciones, como lo demuestra el código de Hammurabi donde ya aparece la figura del arquitecto y se dispone como se debían realizar las construcciones basándose en las citadas reglas

La utilización de principios científicos al diseño de sistemas estructurales y mecánicos se inicia con la civilización griega y es cuando aparecen las primeras relaciones entre las matemáticas, la mecánica y las estructuras, y a partir de este momento estas materias permanecerán firmemente unidas hasta nuestros días. Nos consta que es Arquímedes el que resuelve los primeros problemas de la estática en sus estudios de palancas, fundamentándose en los estudios sobre fuerzas previamente realizados por Aristóteles.

Se carece de escritos de importancia hasta la llegada del Renacimiento. Sin embargo, lo más probable es que la construcción de iglesias y catedrales se fundamentara en las leyes de la estática ya conocidas. Durante el Renacimiento se produjo un resurgimiento del interés por la ciencia y aparecieron grandes figuras en los campos de la arquitectura y la ingeniería. Leonardo da Vinci aborda, por primera vez, cuestiones básicas sobre flexión de vigas, rotura de pilares y equilibrio de arcos, y realiza experimentos sobre la resistencia de materiales. Se empieza así a generar un estímulo e inquietud entre arquitectos y  constructores de la época.

Galileo se erige como el genio capaz de dar respuesta a esta inquietud. En su obra sobre Dos Nuevas Ciencias analiza la resistencia de las vigas a tracción y flexión, y el pandeo de pilares. Durante el siglo XVII e inicio del XVIII se hacen grandes aportaciones matemáticas en base al cálculo diferencial desarrollado por Newton y Leibniz. Se inicia así la teoría matemática de los esfuerzos. Leibniz lleva a cabo el primer análisis tensional en vigas y concluye que el momento flector es proporcional al momento de inercia de la sección. Hooke de la Real Academia de Ciencias Inglesa formula el teorema de proporcionalidad entre tensiones y deformaciones que constituye la hipótesis básica de la elasticidad. En el siglo XVIII Jacobo Bemouilli elaboró una teoría para localizar la fibra neutra en vigas, y en sus estudios aparece por primera vez una completa relación entre las tensiones y deformaciones. Euler y Lagrange realizaron importantes descubrimientos en el campo de las deformaciones de vigas y la estabilidad de pilares.

A partir de este momento se puede decir que comienza una nueva era en el análisis de las estructuras. Se inicia así y de forma progresiva un proceso deductivo para su conocimiento. Este proceso involucra una serie de pasos tales como: identificación del comportamiento, utilización de un procedimiento físico-matemático para la formulación de una teoría, y por último su verificación mediante la aplicación a distintos casos. Estas teorías se verán sometidas a un continuo chequeo y posible refutación en base a como modelan la realidad en sus distintos casos. El proceso deductivo lleva por consiguiente a saber no solo qué hacer y cómo hacerlo, sino también el por qué.

El final del siglo XVIII y primera mitad del XIX marca la preponderancia de la escuela francesa y su sistema de Ecoles. De ellas surgen grandes contribuciones al análisis estructural como las realizadas por Navier, que formula la teoría tridimensional de la elasticidad lineal, y Cauchy que establece la existencia del tensor de esfuerzos y las ecuaciones de equilibrio interno. Durante la segunda mitad del siglo XIX y primera mitad del siglo XX se producen importantes avances en la teoría de estructuras: flexión, torsión, teoría de placas, dinámica estructural, fotoelasticidad, comportamiento plástico y criterios de rotura. Se crea así una ciencia más general a la que se le denomina Mecánica de Medios Continuos que acompaña a la Teoría de Estructuras. Las exigencias de estos avances hacen ver la necesidad de potenciar el estudio de matemáticas, resistencia de materiales y teoría de las estructuras en la formación de los ingenieros y arquitectos involucrados en el diseño estructural.

En 1848 aparece el hormigón armado, pero tienen que pasar algunos decenios hasta que se empiece a apreciar su importancia, y ya a finales del siglo XIX se empieza a extender su uso en edificaciones y puentes. En las primeras décadas del siglo XX el desarrollo del hormigón y el perfeccionamiento de los elementos de unión en las estructuras de acero laminado hacen posible la construcción de puentes con mayores luces, edificaciones de mayor altura y cubiertas más esbeltas. Todo esto influye considerablemente en el desarrollo del análisis de estructuras, provocando numerosos estudios sobre el comportamiento de arcos hiperestáticos, vigas continuas, placas, cúpulas, estructuras laminares y pórticos (como el famoso método del ingeniero civil norteamericano Cross desarrollado en 1930, y que fue la base del análisis de numerosas estructuras aporticadas durante décadas).

A esta época pertenecen estructuras emblemáticas como el Golden Gate Bridge diseñado por los ingenieros civiles y estructurales Strauss y Ellis, construido en 1937 y que con sus 1280 metros de luz entre pilares mantuvo el record mundial hasta el año 1964. El Empire State Building construido en 1931 con 443 metros de altura, cuya estructura fue diseñada por el ingeniero civil y estructural Homer Balcom quien también diseñó las estructuras del Rockfeller Center y el Hotel Waldorf-Astoria construido en 1931 y que ostentó el record del hotel más alto del mundo hasta el año 1963. En España caben destacar las estructuras en lámina del ingeniero de caminos Eduardo Torroja tales como la cubierta del Hipódromo de la Zarzuela proyectada en 1933 y construida en 1941, el Frontón de Recoletos y la cubierta del mercado de Algeciras, ambos construidos en 1935.

Llegamos así a la segunda mitad del siglo XX teniendo un conocimiento amplio de la teoría de elasticidad y plasticidad, de la estática y dinámica de estructuras, así como de las propiedades de los materiales. También se conocían los métodos numéricos y variacionales, y el uso del cálculo matricial, ya esbozados en el siglo XIX. El principal problema era la incapacidad de resolución del elevado número de ecuaciones generadas. Es entonces cuando aparece el ordenador, y todas estas teorías y técnicas se abren a un campo inexplorado. El ordenador, con su potencia de cálculo, revoluciona no sólo el análisis de estructuras, sino todas las ramas de la ciencia. Al disponer de esta nueva herramienta, el problema físico puede ahora ser analizado con una mayor amplitud. En el análisis de estructuras cobran toda su importancia las teorías matemáticas desarrolladas con anterioridad y se abordan problemas más complejos con mayor exactitud.

Como consecuencia, la aplicación del cálculo matricial al análisis de estructuras se empieza a aplicar en la industria aeronáutica con el uso del ordenador a principios de los años 50. Seguidamente, en el año 1956 Ray Clough (profesor de ingeniería civil y estructural en la Universidad de California, Berkeley), junto con Turner, Martin y Topp extendieron la formulación matricial dando lugar al conocido Método de los Elementos Finitos. En 1957 Clough se tomó un año sabático invitado por la Universidad de Trondheim en Noruega donde, lejos de sus labores docentes y administrativas, siguió trabajando en el nuevo método y donde le empezó a llamar por el nombre de elementos finitos. Básicamente, el método consiste en discretizar el continuo creando una malla de elementos, e imponiendo en ellos las condiciones de comportamiento del material y compatibilidad de deformaciones, y cumpliendo equilibrio de una forma integral en los nudos de dicha malla. El desarrollo de todo este proceso fue muy rápido, de forma que, al principio de la década de los 60, el método ya estaba perfectamente establecido y comenzaba a ser popular para el análisis de estructuras.

Algunos profesores de Berkeley dudaban del método y plantearon resolver una serie de casos, entre ellos, el problema clásico de concentración de tensiones alrededor de un agujero elíptico en una placa de acero sometida a tracción. Un estudiante fue encargado de realizar el mallado y realizar el análisis que dio muy buenos resultados. Así se disiparon muchas críticas y dudas sobre el nuevo método.

Simultáneamente los matemáticos al estudiar esta técnica se percataron de que consistía en utilizar una extensión del método variacional de Ritz usando funciones admisibles dentro de cada elemento. Se advirtió entonces que este método es aplicable a la resolución de todos aquellos problemas modelados por medio de ecuaciones en derivadas parciales. Como consecuencia de ello, en los años siguientes no solo progresa su uso en el análisis de estructuras sino también en el análisis de transferencia de calor y procesos termodinámicos, dinámica de fluidos, aero-elasticidad e interacción fluido-estructura, mecanismos y multi-cuerpos flexibles, campos electro-magnéticos, e incluso más recientemente en el área de las finanzas y modelos económicos. Además, al compararlo con el método de las diferencias finitas hasta entonces en boga, se vio que el método de elementos finitos poseía una mayor generalidad y versatilidad.

Asimismo, empiezan a cobrar mucha importancia los aspectos relacionados con el análisis numérico y programación en ordenadores de manera que los métodos computacionales se convierten en una herramienta de trabajo usual en muchas ingenierías. Programas de ordenador de elementos finitos tales como SAP- desarrollado en la Universidad de Berkeley-, STRUDLE- desarrollado en el MIT-, NASTRAN -desarrollado por la NASA-, aparecen en los años 70 y constituyen la base del software comercial que se utiliza en nuestros días.

Durante los años 70 y 80, el método de elementos finitos junto con los métodos numéricos se enseñaban mayormente en cursos de especialización y postgrado. Sin embargo, y debido a su enorme extensión y uso, hoy en día se ha adoptado poner al alumno en contacto con estos métodos lo antes posible, formando parte del currículum del grado de las ingenierías en la mayoría de las escuelas nacionales y extranjeras.

Como conclusión de esta breve reseña histórica se puede mencionar que las técnicas de programación junto con el método de elementos finitos han permitido desarrollar herramientas computacionales muy consolidadas y potentes que permiten hoy en día realizar análisis muy sofisticados y optimizar los diseños estructurales. Como ejemplo, en el año 2016 un equipo de ingenieros de la Universidad de Sydney realizó un estudio de la torre Eiffel por elementos finitos concluyendo que si se hubiera utilizado este método de análisis se habría podido construir la torre con un 46% menos de acero, es decir prácticamente la mitad. Por lo tanto vemos, que estas técnicas nos llevan a soluciones optimizadas, mas sostenibles y amigables con el entorno.

Como ejemplos de esta capacidad de análisis merece la pena destacar el puente colgante de Akashi Kaikyo construido en 1998 en Japón y diseñado por el ingeniero civil y estructural Satoshi Kashima. Este puente ostenta actualmente el record del mundo entre pilares (1991 metros), y al ser construido en zona sísmica lleva amortiguadores que operan a la frecuencia propia del puente en caso de un terremoto. Otro ejemplo es el edificio Burj Khalifa construido en Dubai en el año 2009 con altura record de 828 metros y cuya estructura, de acero y hormigón, fue diseñada por el ingeniero civil y estructural Bill Baker.

El análisis y diseño estructural es hoy en día un campo consolidado que requiere una formación intensa y específica no solo en matemáticas, física, resistencia de materiales y análisis estructural sino también en métodos numéricos y computacionales como el mencionado de elementos finitos. Y todo ello acompañado por una práctica profesional que le permita al proyectista conseguir la suficiente experiencia. Es significativo que en el mundo profesional anglo-sajón y norte europeo se exija para la obtención de la licencia estructural (es decir para firmar proyectos de estructuras): primero, una formación especializada en estructuras (comúnmente a nivel de master); segundo, una práctica profesional (mínima de 3 años en el caso de Estados Unidos); y tercero, un consiguiente examen de estado.

¿Dónde se encuentran hoy en día los retos de las estructuras y a dónde se dirige la educación, investigación e innovación en esta área de conocimiento? Como ya he mencionado esta área se considera consolidada y pienso que su futuro va a depender del progreso en el área de los materiales y de las nuevas técnicas aportadas por la inteligencia artificial, “machine learning”, y técnicas de “big data”.

Los materiales comúnmente utilizados en las estructuras: acero, hormigón, madera y aluminio seguirán su curso hasta que no se encuentre algún nuevo material de uso masivo que aporte ventajas económicas y que los pueda reemplazar. Si bien se están desarrollando nuevos materiales tales como nuevas aleaciones, materiales compuestos y cerámicos, hormigones que se auto reparan, etc., y que se utilizan en algunas aplicaciones concretas, no se percibe que por ahora haya sustitutos a los materiales arriba mencionados.

Las técnicas de inteligencia artificial y aprendizaje automatizado (machine learning) están ya ejerciendo una influencia importante en el análisis y diseño de estructuras. Los modelos de elementos finitos que se utilizan para problemas estructurales pueden llegar a ser costosos tanto por la cantidad de tiempo de mano de obra que requieren en su desarrollo, como por el coste computacional. La utilización de técnicas de machine learning permiten la elaboración de metamodelos muy precisos, baratos, y fáciles de utilizar. Los sistemas de redes neuronales profundas (deep learning) permiten obtener excelentes resultados. Valga como ejemplo el programa de ajedrez LCZero, desarrollado usando redes neuronales profundas, que es el actual campeón del mundo, una vez que los ordenadores empezaron a vencer al ser humano tras la famosa partida del ordenador Deep Blue contra Kasparov en el año 1997.

Sin embargo, los modelos de inteligencia artificial son opacos, no-intuitivos y difíciles de entender (concepto denominado black box). Un nuevo paradigma está emergiendo como Inteligencia Artificial Explicable, y es el de utilizar técnicas de inteligencia artificial fundamentadas en los métodos científicos ya desarrollados. Con ello se obtienen modelos inteligentes en los que se entiende por qué y cómo funcionan. Bajo este concepto entran en juego otros paradigmas tales como el de Mecánica Computacional Impulsada por Datos y Redes Neuronales Informadas por Métodos Físicos en las que redes neurales son complementadas por modelos estructurales que establecen relaciones con las variables de los distintas capas de la red neuronal. Por lo tanto todo lo conocido hasta ahora sobre estructuras se podrá incluir en técnicas de aprendizaje automatizado de una forma complementaria e inteligente.

Estos aspectos han de incidir en la formación y educación de los proyectistas de estructuras que tendrán que poseer una base profunda y multidisciplinar que comprenda: la teoría de estructuras, el comportamiento de materiales, los métodos computacionales, así como las técnicas de machine learning y tratamiento de big data. Como hemos visto el área de estructuras fue pionera en la aplicación de técnicas computacionales (los elementos finitos son prueba de ello), tiene ahora como reto continuar esta trayectoria en el entorno de la inteligencia artificial y diseño automatizado. Es la hora de generar desde el ámbito académico un curriculum técnico y científico lo suficientemente sólido para acometer estos retos.

Aprovecho este acto para agradecer a la Universidad de Navarra y a la Escuela de Arquitectura la oportunidad que me han proporcionado durante todos estos años para investigar e impartir docencia en esta área de conocimiento tan atractiva.

Muchas gracias.