En 2013, el matemático y prestigioso escritor de libros de divulgación, Ian Stewart, publicó un libro titulado “17 ecuaciones que cambiaron el mundo”. En este artículo, explicamos algunas de ellas y por qué han sido tan importantes para la historia de la humanidad.
1. El teorema de Pitágoras
Esta famosa ecuación es la base de la geometría tal como la conocemos. Data del 530 a.c. y describe la relación que existe entre los lados de un triángulo rectángulo situado sobre una superficie plana, afirmando que la suma del cuadrado de la longitud de los lados cortos a y b (“catetos”) es igual al cuadrado de la longitud del lado más largo c (“hipotenusa”).
Este teorema es especialmente útil en el campo de la construcción, pero también en la navegación para triangular posiciones, en las investigaciones policiales para calcular la trayectoria de una bala o determinar a qué distancia estaba el tirador o para averiguar la posición de un teléfono móvil por triangulación. Los GPS que utilizamos hoy en día no podrían funcionar sin este teorema.
2. Los logaritmos
Los logaritmos, presentados por John Napier en 1610, son la inversa (lo opuesto) de las funciones exponenciales. Un logaritmo de una base determinada es la potencia a la que tenemos que elevar esa base para conseguir un número. La ecuación log(ab)= log(a) + log(b) es una de las aplicaciones más útiles de los logaritmos, al convertir la multiplicación en suma.
Hasta el desarrollo de los ordenadores y la computación digital, este era el método más común para multiplicar rápidamente entre sí números de gran tamaño y aceleró considerablemente los cálculos en campos como la física, la astronomía y la ingeniería.
En la actualidad se utilizan en numerosos campos como el de la economía y la banca, en donde se utiliza, por ejemplo, para medir el crecimiento de los depósitos en el tiempo; el la publicidad, para elaborar las estadísticas de la campaña publicitaria; en biología, para el análisis estadístico de qué genética heredará un hijo de sus padres; en geología, para calcular la intensidad de los terremotos; en química, para el cálculo del pH, etc.
3. La ley de la gravedad
Esta ley de la física clásica, también denominada ley de la gravitación universal, fue enunciada por Isaac Newton en 1687 y describe la fuerza de atracción mutua F que experimentan dos cuerpos en función de sus respectivas masas m1 y m2, la distancia que los separa r y la constante de gravitación universal G. Según esta ley, cuanto mayor sea la masa de los cuerpos y cuanto más cerca se encuentren uno del otro, con mayor fuerza se atraerán.
Esta ley explica casi a la perfección el movimiento de los planetas y es completamente universal, es decir, no sólo funciona en la Tierra, sino en todo el Universo. En nuestra vida diaria, explica muchas cosas, entre ellas, por qué la tierra gira alrededor del sol, por qué un péndulo puede mantener su movimiento oscilante eternamente, por qué si lanzamos cualquier objeto hacia arriba siempre acaba cayendo hacia abajo y por qué su velocidad de caída aumenta a medida que se aproxima a la Tierra, etc.
La ley de la gravedad de Newton se mantuvo vigente hasta que fue reemplazada por la teoría de la relatividad general de Albert Einstein, a principios del siglo XX.
4. La ecuación de la onda de d'Alembert
La ecuación de la onda o ecuación de d'Alembert es una ecuación diferencial desarrollada por el matemático y filósofo francés Jean le Rond d'Alembert en 1746. Esta ecuación sirve para describir el comportamiento o cambio de forma a lo largo del tiempo de una amplia variedad de ondas, entre ellas, las ondas del agua, las sonoras y las de la luz. Por ejemplo, una cuerda de guitarra que vibra, las ondas en un estanque tras lanzar una piedra o la luz que emite una bombilla incandescente. De ahí que sea tan importante en campos como la acústica, el electromagnetismo o la dinámica de fluidos, entre otros. Además, las técnicas desarrolladas para resolver esta ecuación ayudaron a comprender otras ecuaciones diferenciales.
5. Teorema de los poliedros de Euler
El matemático Leonhard Euler publicó en 1751 su “Teorema de los poliedros”, que incluye una fórmula de resultados sorprendentes. ¿Pero qué es un poliedro? Pues es una versión tridimensional de un polígono. Por ejemplo, un cubo sería un poliedro o versión tridimensional del polígono cuadrado. Las esquinas de un poliedro se llaman “vértices”, las líneas que conectan los vértices entre sí se denominan “aristas”, y las superficies que quedan entre ellos son las “caras” del poliedro.
La genialidad de Euler consiste en haber encontrado una fórmula válida para todos los poliedros y que nos permite saber si el poliedro está bien construido. Según Euler, la suma de los vértices (V) y las caras (C) de un poliedro menos sus aristas (A) deberá ser siempre igual a 2. Por ejemplo, un cubo tiene 8 vértices, 6 caras y 12 aristas. Si le aplicamos la fórmula de Euler, V – A + C = 2, veremos que 8 – 12 + 6 = 2.
Elige cualquier otro poliedro y prueba a aplicarle la fórmula. ¡El resultado siempre será 2!
Esta observación de Euler fue uno de los primeros ejemplos de lo que hoy en día denominamos “invariante topológica”: un número o propiedad que comparten una clase de formas similares entre sí; y allanó el camino para el desarrollo de la topología, una rama de las matemáticas esencial para la física moderna y la cartografía 3D.
6. La distribución normal
La distribución normal, también conocida como distribución gaussiana o campana de Gauss, describe el comportamiento de ciertas propiedades o procesos independientes en grandes grupos de cosas o personas. La importancia de esta distribución radica en que aparece constantemente en la naturaleza y en la actitud de las personas, permitiendo modelar numerosos fenómenos naturales, sociales y psicológicos. Su uso es muy frecuente en campos como la física, la biología, la psicología o las ciencias sociales, entre otros.
Por ejemplo, si analizamos la altura de todas las personas de un grupo de muestra veremos que la mayor parte de las personas estarán en torno a una altura media y que a medida que nos alejamos de esa media de altura por arriba o por abajo, el número de personas disminuye, dando lugar al típico gráfico en forma de campana desarrollado por Carl Friedrich Gauss en 1810. Lo mismo sucederá si analizamos su cociente intelectual.
Esta distribución es también una herramienta fundamental en los laboratorios, para ver el porcentaje de efectividad que tiene un fármaco en los ensayos clínicos.
7. Las ecuaciones de Maxwell
Son cuatro ecuaciones diferenciales que describen el comportamiento de la electricidad (E) y el magnetismo (H) y cómo se relacionan entre sí. Estas ecuaciones, publicadas por James Clerk Maxwell en 1865 son la base de la explicación de cómo funciona el electromagnetismo en el día a día.
En la vida cotidiana, podemos explicar con ellas cómo se trasmite la información de la televisión, de Internet y de los teléfonos móviles, cuánto tarda en llegar a la Tierra la luz de las estrellas o cómo funcionan las neuronas.
No obstante, hoy en día se sabe que estas ecuaciones ofrecen solo una aproximación al electromagnetismo que funciona bien en escalas humanas pero que no es exacta, de ahí que la física moderna haya reemplazado las ecuaciones de Maxwell por una explicación mecanocuántica.
8. La 2ª ley de la termodinámica
Según esta ley, enunciada por Boltzmann en 1874, en un sistema cerrado, la entropía (S) es siempre constante o creciente. ¿Pero qué es la entropía termodinámica? En términos generales, la entropía determina la cantidad de desorden que hay en un sistema. Por ejemplo, un sistema que parte de un estado irregular y ordenado -como una región caliente al lado de una región fría- siempre tenderá a igualarse, fluyendo el calor desde la zona caliente a la zona fría, hasta alcanzar una distribución uniforme.
A diferencia de la mayoría de los procesos físicos, que suelen ser reversibles, la segunda ley de la termodinámica es irreversible, sólo funciona en esta dirección y depende del tiempo. Así, si preparamos un café con hielo, siempre se derretirán los cubitos de hielo y nunca se congelará el café.
9. La teoría de la relatividad
Albert Einstein cambió el curso de la física al enunciar sus teorías de la relatividad general y especial a principios del siglo XX. La famosa ecuación E = mc2 implica que masa y energía son equivalentes entre sí.
La relatividad especial, publicada en 1905, nos enseñó que la velocidad de la luz es un límite de velocidad universal y que el paso del tiempo es diferente para las personas que se mueven a diferentes velocidades. Mientras que la teoría general de la relatividad o relatividad general, publicada en 1915, es una nueva teoría de la gravitación que reemplazó a la Ley de Newton y que describe la gravedad como una curvatura y plegamiento del espacio y el tiempo sobre sí mismos. La relatividad general es esencial para entender los orígenes, la estructura y el destino final del universo.
10. La ecuación de Schrödinger
Esta ecuación, publicada por el físico austríaco Erwin Schrödinger en 1927, rige el comportamiento de los átomos y las partículas subatómicas y es la base de la mecánica cuántica. Es una de las teorías científicas con más éxito de la historia, junto con la teoría general de la relatividad, dado que todas las observaciones experimentales realizadas hasta la fecha coinciden a la perfección con sus predicciones. En la vida diaria, la mecánica cuántica está presente en las tecnologías más modernas, como la energía nuclear, los ordenadores basados en semiconductores o los láseres.
11. Teoría de la información
Se trata de la ecuación de la entropía de la información, publicada por Shannon en 1949. Al igual que la entropía termodinámica, esta es una medida de desorden, pero aplicada, en este caso, a la información contenida en un mensaje, ya sea un libro, una imagen o cualquier otra cosa que se pueda representar de forma simbólica. Se aplica en diferentes ámbitos de la información, entre ellos, la compresión de datos. Al comprimir un mensaje puede darse el caso de que haya alguna pérdida de contenido y a mayor compresión, más probabilidades hay de que se produzcan pérdidas. En este sentido, la entropía de Shannon indica el límite de compresión de un mensaje, es decir, en qué medida podemos comprimirlo sin perder parte de su contenido. Esta teoría marcó el inicio del estudio matemático de la información y sus resultados son fundamentales hoy en día para la comunicación a través de redes.
12. La teoría del caos
Seguro que has oído hablar alguna vez de que una mariposa que bate sus alas en un continente puede provocar un huracán en otro continente. Pues eso es, básicamente la teoría del caos, la idea de que un pequeño suceso o cambio en las condiciones iniciales pueda originar una reacción en cadena que de lugar a un resultado completamente diferente.
El matemático y biólogo australiano Robert May desarrolló su ecuación en 1976 mientras estudiaba la evolución de las poblaciones de animales. La ecuación describe un proceso que evoluciona con el paso del tiempo, donde xt sería la cantidad del factor estudiado x (en el caso de May, el número de hijos de cada individuo de la población) en el momento actual t, K es una constante elegida y xt+1 sería la evolución del valor x con el paso del tiempo. Para ciertos valores de K, el mapa logístico de May muestra un comportamiento caótico. Según esta teoría, si empezamos en un valor inicial concreto de x, el proceso va a evolucionar de una manera, pero si partimos de otro valor inicial diferente, aunque este sea extremadamente próximo al primer valor, el proceso evolucionará de una manera completamente diferente.
Este comportamiento caótico tan sensible a las condiciones iniciales está presente en numerosos aspectos de nuestra vida cotidiana. Un ejemplo bastante claro es el del tiempo meteorológico, en donde un pequeño cambio en las condiciones atmosféricas de un día puede conducir a sistemas meteorológicos completamente diferentes pocos días después. Hoy en día, es especialmente frecuente su uso en el campo de la economía, la medicina y la meteorología.
No hay comentarios:
Publicar un comentario