El Casino de Monte Carlo y las radiaciones

portada

Hay que reconocer que Stanislaw Ulam y John von Neumann tuvieron su momento de inspiración al bautizarlo Método Monte Carlo. Y no era otra cosa que un método de resolución aproximada del transporte de partículas mediante el uso de números aleatorios. En realidad el nombre fue sugerencia de su colega Nicholas Metropolis que relacionó el aspecto aleatorio del método con el hecho de que Ulam tuviera un tío que solía pedir dinero a la familia porque “tenía que ir al casino de Monte Carlo”, en el Principado de Mónaco. El nombre tuvo tanta aceptación que se generalizó a todo método de aproximación basado en el uso de números aleatorios, no sólo a su aplicación al transporte de partículas. Pero muchos diréis ¿y quiénes son esos personajes? Eran físicos estadounidenses de origen europeo que trabajaron conjuntamente en el Proyecto Manhattan durante la Segunda Guerra Mundial y en los años posteriores.

Pero estrictamente hablando ellos no fueron los inventores del método. Quizás la primera documentación sobre el uso de un muestreo aleatorio para encontrar una solución a un problema es la del naturalista francés Georges Louis Leclerc, conde de Buffon.

Extracto del capítulo 11 de “Érase una vez… los inventos”. Se habla del conde de Buffon y el muestreo aleatorio a partir del minuto 4:11

En 1777 describió el siguiente experimento: una aguja de longitud L se lanza aleatoriamente sobre una hoja de papel rayada con líneas rectas separadas una distancia d (con d mayor que L). ¿Cuál es la probabilidad P de que una aguja caiga cruzando una de las líneas? Leclerc realizó el experimento lanzando la aguja multitud de veces para determinar P. También llevó a cabo el análisis matemático para encontrar que dicha probabilidad estaba relacionada con la longitud de la aguja L y la separación entre líneas d a través del número π. Es por tanto una forma de determinar el número π mediante el método Monte Carlo. Pero si os disponéis a realizar la prueba, armaos de paciencia porque hay que tirar muchas agujas para que el resultado empiece a parecerse al valor real.

 Simulación por ordenador del experimento de Leclerc con 60 agujas de longitud L lanzadas sobre una hoja con 5 líneas separadas una distancia d tal que . La probabilidad de que una de las agujas cruce alguna de las líneas es: Si en esta simulación 29 agujas cruzan alguna línea, ¿cuál es la estimación del valor de π ? No os robaré el placer de calcularlo por vosotros mismos.

Simulación por ordenador del experimento de Leclerc con 60 agujas de longitud L lanzadas sobre una hoja con 5 líneas separadas una distancia d tal que L/d=3/4.  La probabilidad de que una de las agujas cruce alguna de las líneas es: P=2L/πd
Si en esta simulación 29 agujas cruzan alguna línea, ¿cuál es la estimación del valor de π ? No os robaré el placer de calcularlo por vosotros mismos.

Lord Kelvin también usó el muestreo aleatorio para evaluar unas integrales de la teoría cinética de los gases. En una publicación de 19011, describía cómo había numerado trozos de papel que posteriormente extraía de un cuenco. Pero él mismo ponía de manifiesto lo poco que le convencía el método, ante la dificultad de mezclar adecuadamente los trozos o incluso cómo la electricidad estática provocaba que en ocasiones sacara varios trozos de una vez.

Existen otros ejemplos documentados sobre el uso del muestreo aleatorio antes de los años cuarenta, pero podemos considerar a Ulam y von Neumann los creadores del método Monte Carlo como lo conocemos hoy día, al realizar una descripción completa del método e incluirle un ingrediente que le confirió un potencial excepcional: la utilización de computadoras electrónicas.

Al terminar la Segunda Guerra Mundial, en la Universidad de Pensilvania se construyó la primera computadora electrónica, ENIAC, con más de 17.000 válvulas de vacío y otras tantas resistencias, diodos y condensadores. Su objetivo inicial era realizar cálculos balísticos para el ejército estadounidense, que hasta ese momento eran efectuados por un ingente grupo de personas con calculadoras convencionales de la época. John von Neumann, que ejercía de consultor tanto para el ejército como para el Laboratorio Nacional de Los Alamos, implicado en el Proyecto Manhattan, convenció al ejército para ceder el poder de cálculo de ENIAC para comprobar modelos de reacciones nucleares.

¿En qué consistían esos cálculos? Un ejemplo es la difusión de neutrones en un material fisionable. Los modelos iniciales consideraban una esfera de material fisionable rodeada de un material de alta densidad. Se asumía una distribución inicial de neutrones con diferentes velocidades. La idea era seguir el movimiento de un gran número de neutrones individuales que pueden sufrir dispersiones, absorciones, fisionar núcleos y escapar de la esfera. En primer lugar se toma un neutrón en concreto con una posición y velocidad dadas. Entonces hay que decidir en qué punto va a sufrir una colisión y de qué naturaleza será. Si se ha determinado que sea una fisión por ejemplo, debe decidirse el número de neutrones que emergerán, los cuales deben ser seguidos como el que provocó la fisión. En cambio, si la colisión es una dispersión, debe determinarse su nueva velocidad. Una vez seguido el primer neutrón y todos los que produjera por fisiones hasta que sean absorbidos o abandonen la geometría, tendríamos que se ha concluido la “historia” de ese neutrón. Como resultado, el medio ha sufrido una cierta perturbación que habremos calculado. Esa perturbación puede ser, por ejemplo, la energía cedida al medio por los neutrones. Este mismo proceso se repite tantas veces como sea necesario hasta apreciar que el promedio de esa perturbación tiende a un valor estable.

Pero, ¿cómo se decide qué evento sufre cada neutrón y cuál será la longitud recorrida entre eventos consecutivos? Aquí es donde entran en juego los números aleatorios. Como sí conocemos las funciones de probabilidad de ocurrencia de los diferentes eventos posibles, tan sólo se trata de muestrear aleatoriamente dichas funciones cada vez que se requiera determinar la longitud de una trayectoria, qué evento va a tener lugar y qué características van a tener los productos de dicho evento, si los hay. De la simulación de numerosas historias obtenemos un resultado promedio. Pero dicho resultado va cambiando conforme aumenta el número de historias. ¿Cómo podemos saber lo cerca que estamos del valor que estamos buscando? Para ello nos ayudamos de la varianza de los mismos. Cuanto menor sea esa varianza, más cerca del valor buscado nos encontraremos. Como regla general podemos decir que la varianza es inversamente proporcional al número de historias simuladas. Si queremos tener un resultado muy preciso, es necesario simular un alto número de historias.

Antes de disponer de ENIAC se realizaban dichas simulaciones con calculadoras mecánicas. Es fácil intuir que se requería tanto tiempo para alcanzar resultados fiables que su abordaje era inviable. Enrico Fermi, que ya había hecho incursiones en este mundo de la estimación estadística en los años treinta, sin publicar sus métodos, diseñó un artilugio que llamó FERMIAC. Consistía en una serie de ruedas que se ajustaban según el material en el que se encontrara el neutrón y permitía dibujar trayectorias sobre un gráfico bidimensional. Este dispositivo se estuvo utilizando durante un período de tiempo en el que ENIAC no estuvo operativo debido a un traslado de centro de operaciones.

Stanislaw Ulam con el FERMIAC

Stanislaw Ulam con el FERMIAC

Ejemplo de uso del FERMIAC sobre un gráfico bidimensional. El dispositivo puede verse en el Bradbury Science Museum en Los Alamos

Ejemplo de uso del FERMIAC sobre un gráfico bidimensional. El dispositivo puede verse en el Bradbury Science Museum en Los Alamos

En los primeros años tras la difusión del método Monte Carlo asistido por computadoras podría decirse que tuvo una aplicación limitada. Eran muy pocos los científicos que disponían de dicho tipo de computadoras y su programación era muy compleja. En 1954, Hayward y Hubbell simularon la trayectoria de 67 fotones utilizando calculadoras mecánicas y una lista de números aleatorios. En la década de los cincuenta había una cierta insistencia en aplicar el método en la resolución de cualquier de tipo de problema, resultando ser en muchos casos un método menos eficiente que otras herramientas de análisis numérico, lo que contribuía a su desacreditación ante la comunidad científica.

Fue a partir de los años sesenta cuando se empezó a tener en mejor consideración por varias razones. Se consiguió un mejor reconocimiento de aquellos problemas en los que era la mejor ―y en algunos casos la única― técnica disponible. También hubo un continuo progreso en la construcción de las computadoras electrónicas que las hacía cada vez más asequibles y rápidas en sus cálculos.

La programación de las simulaciones también se facilitó considerablemente con el desarrollo de códigos Monte Carlo que permiten la simulación del transporte de radiación con la mera introducción de unos parámetros que definen el problema en cuestión. Los usuarios de estos códigos no tienen que preocuparse de aspectos como la generación de números aleatorios ni de la definición de funciones de distribución de probabilidad de eventos. Entre esos códigos podemos encontrar MCNP (desarrollado por el propio laboratorio de Los Alamos), EGS4Geant4, Fluka, ¡e incluso tenemos uno español! PENELOPE desarrollado en la Universidad de Barcelona, el cual goza de un gran prestigio sobre todo en el ámbito de la física médica. Aunque inicialmente había un gran interés por el transporte de neutrones, ya podemos encontrar que esos códigos pueden utilizarse para el transporte de otros tipos de partículas como fotones, electrones, etc.

Actualmente los métodos Monte Carlo son ampliamente utilizados en el estudio de problemas tan diversos como evaluación de integrales en matemáticas, crecimiento de bosques y estudios de contaminación en ingeniería ambiental, análisis de mercado en economía, y un largo etcétera.

Por supuesto os podéis imaginar el impacto que ha tenido el desarrollo de códigos de simulación del transporte de radiación en el uso médico de las radiaciones ionizantes. Pero su aplicación en la medicina no sólo se centra en el estudio de la interacción de la radiación con materia. En procesos en los que podemos encontrar una alta variabilidad, como es el caso de la respuesta de los tejidos y tumores en los tratamientos radioterápicos, obtener resultados a partir de los ensayos con pacientes requiere de un esfuerzo desmesurado en muchos casos. Es aquí donde la simulación Monte Carlo aporta una información muy valiosa que pueda servir de apoyo en el avance científico2.

Como curiosidad, en 1971 Luke Rhinehart publicó la novela “El hombre de los dados”3. El método Monte Carlo es llevado a su extremo por un psiquiatra que decide volverse un “hombre aleatorio” tomando todas sus decisiones a partir de los resultados del lanzamiento de un par de dados.

1 Lord Kelvin, “I. Nineteenth century clouds over the dynamical theory of heat and light,” The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science 2 (7), 1-40 (1901).

2 D. Guirado Llorente, Variabilidad en radiobiología. Universidad de Granada, Granada, 2012.

3 L. Rhinehart, El Hombre de los dados. Editorial Destino, Madrid, 2003.

4 Respuestas a “El Casino de Monte Carlo y las radiaciones

  1. Un post excelente, gracias por hacerlo tan fácil Salvador.

    Sin duda los métodos de Monte Carlo son herramientas muy poderosas utilizadas en multitud de campos en los que no es posible hacer predicciones cuantitativas de otra manera. Me viene a la cabeza, por ejemplo, el estudio de las propiedades físicas de los sólidos a muy altas presiones y temperaturas (encontradas en las capas internas de la tierra) imposibles de alcanzar en los laboratorios actuales.

    Pero quizás lo que más me maravilla de los métodos de Monte Carlo es que funcionen. Me explico.

    Uno de los objetivos más ambiciosos de Boltzmann cuando trabajó en el desarrollo de los fundamentos de la Física Estadística fue demostrar que
    qué los sistemas físicos macroscópicos reales se comportaban como si fueran ergódicos, es decir, que eran tales que se podía justificar el uso del método de los conjuntos estadísticos y que se cumplía el principio de probabilidad a priori y de fases aleatorias. Dicho de otra manera, Boltzmann pensaba que que todo se podía explicar con argumentos puramente mecanicistas.

    Sin embargo, un siglo después aún no hay una demostración rigurosa que satisfaga a todo el mundo. Nadie sabe, por ejemplo, por qué se cumple el principio de probabilidad a priori por muy evidente que parezca. La ergodicidad se ha demostrado con rigor sólo en ejemplos “de juguete”. Se trata de aguas profundas, pero así es la física: sigue avanzando y haciendo predicciones comprobadas aunque las bases matemáticas de algunas de sus teorías fundamentales no tengan la solidez deseable (sobre todo por un matemático).

    Y de ahí que me maraville. Los métodos de Monte Carlo con las limitaciones que tienen (algoritmos, números pseudo-aleatorios, tiempo y recursos computacionales limitados, etc.) se aplican en problemas fundamentales de Física Estadística y funcionan bastante bien.

    • Agustín, muchas gracias por la felicitación y el comentario.
      Cómo tú bien dices los métodos Monte Carlo son herramientas, en el sentido en que nos ayudan a realizar acciones (en este caso a avanzar en el conocimento) que a lo mejor podríamos conseguir sin ellas, pero con mucho más esfuerzo. Como tales herramientas tienen sus virtudes y sus defectos. El hecho de que carezca de esas sólidas bases matemáticas nos lleva a querer contrastar los resultados con otros obtenidos por otros medios, por ejemplo medidas experimentales. De esta forma validamos el método que estemos aplicando. Pero son muchos los casos, como el que comentas sobre el estudio de las capas internas de la tierra, en los que tener medidas experimentales directas es prácticamente imposible. Aquí no nos queda otra que asumir los resultados que nos proporcionan estos métodos como lo suficientemente aproximados.

  2. Me ha gustado mucho el artículo y creo que puede ayudar a los que están menos familiarizados con estos métodos a entender en qué consiste. También espero que no sea el último sobre este asunto.

    No me resisto a comentar que hace sólo unos años, digamos quince, a los investigadores que usaban el método Monte Carlo para resolver problemas básicos de la dosimetría en el área de la radioterapia se les llamaba “montecarlistas” de una forma un tanto despectiva. Hoy eso parece olvidado porque no hay mejor (ni otro) modo de conocer determinadas cantidades fundamentales para establecer la dosis absorbida en un medio (asunto que da para un post, ¿os animáis?). Esto, en realidad, no es más que el reflejo de algo que se agazapa en nuestras mentes: “lo verdaderamente riguroso y auténtico es resolver los problemas con ecuaciones como dios manda, a ser posible, analíticas”. Esto, es, simplemente, un prejuicio incorrecto.

    El método Monte Carlo es, en determinados problemas, la mejor opción (a veces la única); otras la más sencilla o la que puede explicarse y entenderse mejor; finalmente, también es “exacto” una vez tenidas en cuenta las limitaciones estadísticas asociadas.

  3. Por supuesto que no será el último, Damián, no sería razonable siendo MC como es una herramienta tan relevante en nuestro campo. Como ejemplo de ello podemos citar el hecho de que 20 años después d esu publicación, el artículo seminal del código BEAM, la versión de EGS vestida para matar, que Rogers et al. desarrollaron a principios de los 90, sigue siendo mes tras mes uno de los tres artículos más citados en la revista Medical Physics.

    Hemos “montecarleado” mucho por allí (y lo digo con orgullo) desde que allá por el año 97 comenzamos a interesarnos en este asunto y a usar GEANT primero y PENELOPE después, como alternativas al predominio, casi monopolísitco, de EGS4/BEAM. Muy buenos ratos hablando de “cortes”, historias, eventos, dispersión múltiple, hormigas, autómatas celulares, conos, conteo, cálculo de incertidumbres, distribuciones… vamos, para agotar a cualquiera que no gaste un entusiasmo “king size”. Varias tesis, estudiantes extranjeros, tesinas, artículos… creo que ha merecido y merece la pena, y brindo por todos los que habéis tenido algo que ver con esos buenos ratos.

    Qué te puedo decir, Salva: Gracias por traer aquí todo eso. Compartirlo con gente como tú le añade sentido y placer.

Deja un comentario

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s