Astronomía

¿Cómo se reconcilian las explosiones de supernovas con las limitaciones de la velocidad de la luz?

¿Cómo se reconcilian las explosiones de supernovas con las limitaciones de la velocidad de la luz?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

He aprendido sobre los diversos tipos de supernovas, y tanto los tipos Ib como el II implican la compactación o explosión extremadamente rápida del núcleo de una estrella.

¿Cómo se propaga la "información" de que (respectivamente) el límite de Chandrasekhar o la presión de degeneración se propaga a través de la estrella con suficiente velocidad (aún por debajo de $ c $) para que el colapso resultante siga siendo simétrico y ocurra en muy poco tiempo?


Curiosamente, el límite del tiempo necesario para que tal cambio se propague a través de la estrella no se debe a la velocidad de la luz, sino a algo llamado escala de tiempo dinámica, $ t _ { text {dyn}} $: $$ t _ { text {dyn}} sim frac {R} {v} sim sqrt { frac {R ^ 3} {GM}} simeq frac {1} { sqrt {G bar { rho}}} $$ donde asumimos que la velocidad de una onda de presión, $ v $ es del orden de la velocidad de escape de la estrella. $ R $ es el radio de la estrella, $ M $ es su masa, $ G $ es la constante gravitacional y $ bar { rho} $ es su densidad media (la densidad no es constante en toda la estrella).

$ t _ { text {dyn}} $ puede variar mucho entre diferentes estrellas, dependiendo de sus características. Puede ser del orden de segundos a minutos, de horas a días, y puede determinar el tiempo que tardan en producirse partes de la supernova. Sin embargo, es un límite inferior; los grandes cambios dinámicos pueden llevar más tiempo que $ t _ { text {dyn}} $, pero no menos. Para obtener más información, consulte la Sección II.B de estas notas.

Tenemos que preguntarnos, ¿qué es exactamente $ v $? Hice un gesto con los detalles como una "onda de presión", pero ¿hay algo más que eso? Desafortunadamente, todavía no tenemos grandes modelos de lo que sucede dentro de una supernova, estoy seguro de que lo han escuchado antes, pero tenemos indicios del proceso, que mencioné un poco aquí.

Esencialmente, a medida que el núcleo colapsa, la materia en las regiones internas comienza a caer, alcanzando densidades extremadamente altas. Aquí suceden cosas extrañas, incluida la producción de neutrinos. Al principio, la presión de la degeneración ralentiza el colapso de la estrella interior y se forma una onda de choque. El llamado "rebote de supernova" ocurre cuando esta onda viaja a través de las capas externas de la estrella.

La onda de choque se energiza aún más por la liberación de neutrinos, creados a través de la captura de electrones (tenga en cuenta que algunos ya han escapado de las capas externas): $$ e ^ - + p to n + nu_e $$ Esto se suma a la energía de la onda de choque , que finalmente destruye las capas externas de la estrella. Por lo tanto, podemos ver cómo la escala de tiempo dinámica se relaciona con la onda de choque y el momento de la explosión resultante.

Los procesos exactos que causan el rebote y la onda de choque aún no se comprenden completamente; esta es solo una imagen básica.


Cuando el núcleo colapsa es porque la presión cae por debajo de la requerida para sostener la estrella. Sin embargo, en el punto donde esto sucede, la velocidad del sonido es una fracción razonable de la velocidad de la luz, pero disminuye rápidamente a medida que uno se mueve hacia afuera en la estrella.

El resultado es que la "información" de que la presión del núcleo es demasiado baja se propaga a través del núcleo en una fracción de segundo muy pequeña, y mucho más rápido que el tiempo de colapso dinámico. Sin embargo, el sonido tarda mucho más en propagarse a la envolvente. El resultado es que el núcleo se colapsa y se desacopla del sobre.

En términos generales, no se espera que el colapso del núcleo y la supernova sean perfectamente simétricos.


La inteligencia artificial clasifica las explosiones de supernovas con una precisión sin precedentes

Cassiopeia A, o Cas A, es un remanente de supernova ubicado a 10.000 años luz de distancia en la constelación de Cassiopeia, y es el remanente de una estrella que alguna vez fue masiva que murió en una violenta explosión hace aproximadamente 340 años. Esta imagen superpone datos infrarrojos, visibles y de rayos X para revelar estructuras filamentosas de polvo y gas. Cas A se encuentra entre el 10 por ciento de supernovas que los científicos pueden estudiar de cerca. El nuevo proyecto de aprendizaje automático de CfA ayudará a clasificar miles, y eventualmente millones, de supernovas potencialmente interesantes que de otro modo nunca se estudiarían. Crédito: NASA / JPL-Caltech / STScI / CXC / SAO

La inteligencia artificial clasifica explosiones de supernovas reales sin el uso tradicional de espectros, gracias a un equipo de astrónomos del Centro de Astrofísica | Harvard y Smithsonian. Los conjuntos de datos completos y las clasificaciones resultantes están disponibles públicamente para uso abierto.

Al entrenar un modelo de aprendizaje automático para categorizar supernovas en función de sus características visibles, los astrónomos pudieron clasificar datos reales de la encuesta Pan-STARRS1 Medium Deep para 2,315 supernovas con una tasa de precisión del 82 por ciento sin el uso de espectros.

Los astrónomos desarrollaron un programa de software que clasifica diferentes tipos de supernovas en función de sus curvas de luz o cómo cambia su brillo con el tiempo. "Tenemos aproximadamente 2.500 supernovas con curvas de luz de la Pan-STARRS1 Medium Deep Survey, y de esas, 500 supernovas con espectros que se pueden utilizar para la clasificación", dijo Griffin Hosseinzadeh, investigador postdoctoral de la CfA y autor principal de la primera de dos artículos publicados en El diario astrofísico. "Entrenamos al clasificador usando esas 500 supernovas para clasificar las supernovas restantes donde no pudimos observar el espectro".

Edo Berger, astrónomo de la CfA explicó que al pedirle a la inteligencia artificial que responda preguntas específicas, los resultados se vuelven cada vez más precisos. "El aprendizaje automático busca una correlación con las 500 etiquetas espectroscópicas originales. Le pedimos que compare las supernovas en diferentes categorías: color, tasa de evolución o brillo. Al alimentarlo con el conocimiento real existente, conduce a la mayor precisión, entre 80 y 90 por ciento ".

Aunque este no es el primer proyecto de aprendizaje automático para la clasificación de supernovas, es la primera vez que los astrónomos han tenido acceso a un conjunto de datos reales lo suficientemente grande como para entrenar un clasificador de supernovas basado en inteligencia artificial, lo que hace posible crear algoritmos de aprendizaje automático sin el uso de simulaciones.

"Si hace una curva de luz simulada, significa que está haciendo una suposición sobre cómo se verán las supernovas, y su clasificador también aprenderá esas suposiciones", dijo Hosseinzadeh. "La naturaleza siempre presentará algunas complicaciones adicionales que usted no tuvo en cuenta, lo que significa que su clasificador no funcionará tan bien con datos reales como lo hizo con datos simulados. Debido a que usamos datos reales para entrenar a nuestros clasificadores, significa nuestra precisión medida es probablemente más representativo del rendimiento de nuestros clasificadores en otras encuestas ". Como el clasificador categoriza las supernovas, dijo Berger, "podremos estudiarlas tanto en retrospectiva como en tiempo real para seleccionar los eventos más interesantes para un seguimiento detallado. Usaremos el algoritmo para ayudarnos a seleccionar las agujas". y también para mirar el pajar ".

El proyecto tiene implicaciones no solo para los datos de archivo, sino también para los datos que serán recopilados por futuros telescopios. Se espera que el Observatorio Vera C. Rubin esté en línea en 2023 y conducirá al descubrimiento de millones de nuevas supernovas cada año. Esto presenta tanto oportunidades como desafíos para los astrofísicos, donde el tiempo limitado del telescopio conduce a clasificaciones espectrales limitadas.

"Cuando el Observatorio Rubin esté en línea, aumentará nuestra tasa de descubrimiento de supernovas en 100 veces, pero nuestros recursos espectroscópicos no aumentarán", dijo Ashley Villar, Simons Junior Fellow en la Universidad de Columbia y autora principal del segundo de los dos artículos. , agregando que si bien actualmente se descubren aproximadamente 10,000 supernovas cada año, los científicos solo toman espectros de aproximadamente el 10 por ciento de esos objetos. "Si esto es cierto, significa que sólo el 0,1 por ciento de las supernovas descubiertas por el Observatorio Rubin cada año recibirán una etiqueta espectroscópica. El 99,9 por ciento restante de los datos no se podrán utilizar sin métodos como el nuestro".

A diferencia de los esfuerzos anteriores, donde los conjuntos de datos y las clasificaciones solo estaban disponibles para un número limitado de astrónomos, los conjuntos de datos del nuevo algoritmo de aprendizaje automático se pondrán a disposición del público. Los astrónomos han creado un software accesible y fácil de usar, y también han publicado todos los datos de Pan-STARRS1 Medium Deep Survey junto con las nuevas clasificaciones para su uso en otros proyectos. Hosseinzadeh dijo: "Para nosotros era muy importante que estos proyectos fueran útiles para toda la comunidad de supernovas, no solo para nuestro grupo. Hay tantos proyectos que se pueden hacer con estos datos que nunca podríamos hacerlos todos nosotros mismos". Berger agregó: "Estos proyectos son datos abiertos para ciencia abierta".


No tan rápido, supernova: rayos cósmicos de mayor energía detectados en cúmulos de estrellas

Un mapa infrarrojo de 24 micrómetros de la región de Cocoon con Spitzers MIPS superpuesto con un mapa de significación de rayos gamma de HAWC (el amarillo verdoso a rojo indica una mayor significación de rayos gamma). El mapa está centrado en Cocoon con aproximadamente 4,6 grados en las direcciones xey. Crédito: Binita Hona

Durante décadas, los investigadores asumieron que los rayos cósmicos que bombardean regularmente la Tierra desde los confines de la galaxia nacen cuando las estrellas se convierten en supernovas, cuando crecen demasiado para soportar la fusión que ocurre en sus núcleos y explotan.

De hecho, esas gigantescas explosiones impulsan partículas atómicas a la velocidad de la luz a grandes distancias. Sin embargo, una nueva investigación sugiere que incluso las supernovas, capaces de devorar sistemas solares enteros, no son lo suficientemente fuertes como para imbuir partículas con las energías sostenidas necesarias para alcanzar petaelectronvoltios (PeV), la cantidad de energía cinética alcanzada por rayos cósmicos de muy alta energía.

Y, sin embargo, se han observado rayos cósmicos que golpean la atmósfera de la Tierra exactamente a esas velocidades, su paso marcado, por ejemplo, por los tanques de detección en el observatorio High-Altitude Water Cherenkov (HAWC) cerca de Puebla, México. En lugar de supernovas, los investigadores postulan que los cúmulos de estrellas como Cygnus Cocoon sirven como PeVatrons (aceleradores de PeV) capaces de mover partículas a través de la galaxia a tasas de energía tan altas.

Su investigación de cambio de paradigma proporciona evidencia convincente de que las regiones de formación estelar son PeVatrons y se publica en dos artículos recientes en Astronomía de la naturaleza y Cartas de revistas astrofísicas.

Una característica de la investigación en física es lo colaborativa que es. La investigación fue realizada por Petra Huentemeyer, profesora de física en la Universidad Tecnológica de Michigan, junto con la recién graduada Binita Hona '20, la estudiante de doctorado Dezhi Huang, la ex postdoctoral de MTU Henrike Fleischhack (ahora en la Universidad Católica / NASA GSFC / CRESST II), Sabrina Casanova en el Instituto de Física Nuclear de la Academia Polaca de Ciencias en Cracovia, Ke Fang en la Universidad de Wisconsin y Roger Blanford en Stanford, junto con muchos otros colaboradores del Observatorio HAWC.

Huentemeyer señaló que HAWC y físicos de otras instituciones han medido los rayos cósmicos desde todas las direcciones y durante muchas décadas de energía. Es en el seguimiento de los rayos cósmicos con la energía más alta conocida, PeV, que su origen se vuelve tan importante.

"Se cree que los rayos cósmicos por debajo de la energía de PeV provienen de nuestra galaxia, pero la pregunta es cuáles son los aceleradores que pueden producirlos", dijo Huentemeyer.

Fleischhack dijo que el cambio de paradigma que los investigadores han descubierto es que antes, los científicos pensaban que los remanentes de supernovas eran los principales aceleradores de los rayos cósmicos.

"Acelera los rayos cósmicos, pero no son capaces de alcanzar las energías más elevadas", dijo.

Entonces, ¿qué está impulsando la aceleración de los rayos cósmicos a la energía PeV?

"Ha habido varios otros indicios de que los cúmulos de estrellas podrían ser parte de la historia", dijo Fleischhack. "Ahora estamos recibiendo la confirmación de que son capaces de alcanzar las energías más elevadas".

Los cúmulos de estrellas se forman a partir de los restos de un evento de supernova. Conocidos como cunas de estrellas, contienen vientos violentos y nubes de escombros arremolinados, como los observados por los investigadores en Cygnus OB2 y el cúmulo [BDS2003] 8. En el interior, varios tipos de estrellas masivas conocidas como estrellas espectrales de tipo O y tipo B se reúnen por centenares en un área de unos 30 parsecs (108 años luz) de ancho.

"Las estrellas de tipo espectral O son las más masivas", dijo Hona. "Cuando sus vientos interactúan entre sí, se forman ondas de choque, que es donde ocurre la aceleración".

Los modelos teóricos de los investigadores sugieren que los fotones de rayos gamma energéticos vistos por HAWC son más probablemente producidos por protones que por electrones.

"Usaremos telescopios de la NASA para buscar la emisión equivalente de estas partículas relativistas a energías más bajas", dijo Fang.

Es notable la energía extremadamente alta a la que los rayos cósmicos llegan a nuestro planeta. Se requieren condiciones específicas para acelerar las partículas a tales velocidades.

Cuanto mayor es la energía, más difícil es confinar las partículas, conocimiento obtenido de los aceleradores de partículas aquí en la Tierra en Chicago y Suiza. Para evitar que las partículas se alejen, se requiere magnetismo.

Los cúmulos estelares, con su mezcla de viento y estrellas nacientes pero poderosas, son regiones turbulentas con diferentes campos magnéticos que pueden proporcionar el confinamiento necesario para que las partículas continúen acelerándose.

"Los remanentes de supernova tienen choques muy rápidos donde el rayo cósmico puede acelerarse, sin embargo, no tienen el tipo de regiones de confinamiento largas", dijo Casanova. "Para esto son útiles los cúmulos de estrellas. Son una asociación de estrellas que pueden crear perturbaciones que confinan los rayos cósmicos y hacen posible que los choques los aceleren".

Pero, ¿cómo es posible medir las interacciones atómicas a una escala galáctica a 5.000 años luz de la Tierra? Los investigadores utilizaron 1.343 días de mediciones de tanques de detección HAWC.

Huang explicó cómo los físicos de HAWC trazan los rayos cósmicos midiendo los rayos gamma que estos rayos cósmicos producen en los sitios de aceleración galáctica: "No medimos los rayos gamma directamente, medimos los rayos secundarios generados. Cuando los rayos gamma interactúan con la atmósfera, generan partículas secundarias en lluvias de partículas ".

"Cuando se detectan lluvias de partículas en HAWC, podemos medir la lluvia y la carga de partículas secundarias", dijo Huang. "Usamos la carga de partículas y la información de tiempo para reconstruir información de la gamma primaria".

Además de HAWC, los investigadores planean trabajar con el Observatorio de rayos gamma de campo amplio del sur (SWGO), un observatorio que actualmente se encuentra en las etapas de planificación que contará con detectores de luz Cherenkov como HAWC pero que estará ubicado en el hemisferio sur.

"Sería interesante ver lo que podemos ver en el hemisferio sur", dijo Huentemeyer. "Tendremos una buena vista del centro galáctico que no tenemos en el hemisferio norte. SWGO podría darnos muchos más candidatos en términos de cúmulos estelares".

Las colaboraciones futuras en los hemisferios prometen ayudar a los científicos de todo el mundo a continuar explorando los orígenes de los rayos cósmicos y aprender más sobre la propia galaxia.


La inteligencia artificial clasifica las explosiones de supernovas con una precisión sin precedentes


Cassiopeia A, o Cas A, es un remanente de supernova ubicado a 10.000 años luz de distancia en la constelación de Cassiopeia, y es el remanente de una estrella que alguna vez fue masiva que murió en una violenta explosión hace aproximadamente 340 años. Esta imagen superpone datos infrarrojos, visibles y de rayos X para revelar estructuras filamentosas de polvo y gas. Cas A se encuentra entre el 10 por ciento de supernovas que los científicos pueden estudiar de cerca. El nuevo proyecto de aprendizaje automático de CfA ayudará a clasificar miles, y eventualmente millones, de supernovas potencialmente interesantes que de otro modo nunca se estudiarían. Crédito de crédito: NASA / JPL-Caltech / STScI / CXC / SAO

La inteligencia artificial clasifica explosiones de supernovas reales sin el uso tradicional de espectros, gracias a un equipo de astrónomos del Centro de Astrofísica | Harvard y Smithsonian. Los conjuntos de datos completos y las clasificaciones resultantes están disponibles públicamente para uso abierto.

Al entrenar un modelo de aprendizaje automático para categorizar supernovas en función de sus características visibles, los astrónomos pudieron clasificar datos reales de la encuesta Pan-STARRS1 Medium Deep para 2,315 supernovas con una tasa de precisión del 82 por ciento sin el uso de espectros.

Los astrónomos desarrollaron un programa de software que clasifica diferentes tipos de supernovas en función de sus curvas de luz o cómo cambia su brillo con el tiempo. "Tenemos aproximadamente 2.500 supernovas con curvas de luz de la Pan-STARRS1 Medium Deep Survey, y de esas, 500 supernovas con espectros que se pueden utilizar para la clasificación", dijo Griffin Hosseinzadeh, investigador postdoctoral de la CfA y autor principal de la primera de dos artículos publicados en The Astrophysical Journal. "Entrenamos al clasificador usando esas 500 supernovas para clasificar las supernovas restantes donde no pudimos observar el espectro".

Edo Berger, astrónomo de la CfA explicó que al pedirle a la inteligencia artificial que responda preguntas específicas, los resultados se vuelven cada vez más precisos. "El aprendizaje automático busca una correlación con las 500 etiquetas espectroscópicas originales. Le pedimos que compare las supernovas en diferentes categorías: color, tasa de evolución o brillo. Al alimentarlo con el conocimiento real existente, conduce a la mayor precisión, entre 80 y 90 por ciento ".

Aunque este no es el primer proyecto de aprendizaje automático para la clasificación de supernovas, es la primera vez que los astrónomos han tenido acceso a un conjunto de datos reales lo suficientemente grande como para entrenar un clasificador de supernovas basado en inteligencia artificial, lo que hace posible crear algoritmos de aprendizaje automático sin el uso de simulaciones.

"Si hace una curva de luz simulada, significa que está haciendo una suposición sobre cómo se verán las supernovas, y su clasificador también aprenderá esas suposiciones", dijo Hosseinzadeh. "La naturaleza siempre presentará algunas complicaciones adicionales que usted no tuvo en cuenta, lo que significa que su clasificador no funcionará tan bien con datos reales como lo hizo con datos simulados. Debido a que usamos datos reales para entrenar a nuestros clasificadores, significa nuestra precisión medida es probablemente más representativo del rendimiento de nuestros clasificadores en otras encuestas ". Como el clasificador categoriza las supernovas, dijo Berger, "podremos estudiarlas tanto en retrospectiva como en tiempo real para seleccionar los eventos más interesantes para un seguimiento detallado. Usaremos el algoritmo para ayudarnos a seleccionar las agujas". y también para mirar el pajar ".

El proyecto tiene implicaciones no solo para los datos de archivo, sino también para los datos que serán recopilados por futuros telescopios. Se espera que el Observatorio Vera C. Rubin esté en línea en 2023 y conducirá al descubrimiento de millones de nuevas supernovas cada año. Esto presenta tanto oportunidades como desafíos para los astrofísicos, donde el tiempo limitado del telescopio conduce a clasificaciones espectrales limitadas.

"Cuando el Observatorio Rubin esté en línea, aumentará nuestra tasa de descubrimiento de supernovas en 100 veces, pero nuestros recursos espectroscópicos no aumentarán", dijo Ashley Villar, Simons Junior Fellow en la Universidad de Columbia y autora principal del segundo de los dos artículos. , agregando que si bien actualmente se descubren aproximadamente 10,000 supernovas cada año, los científicos solo toman espectros de aproximadamente el 10 por ciento de esos objetos. "Si esto es cierto, significa que sólo el 0,1 por ciento de las supernovas descubiertas por el Observatorio Rubin cada año recibirán una etiqueta espectroscópica. El 99,9 por ciento restante de los datos no se podrán utilizar sin métodos como el nuestro".

A diferencia de los esfuerzos anteriores, donde los conjuntos de datos y las clasificaciones solo estaban disponibles para un número limitado de astrónomos, los conjuntos de datos del nuevo algoritmo de aprendizaje automático se pondrán a disposición del público. Los astrónomos han creado un software accesible y fácil de usar, y también han publicado todos los datos de Pan-STARRS1 Medium Deep Survey junto con las nuevas clasificaciones para su uso en otros proyectos. Hosseinzadeh dijo: "Para nosotros era muy importante que estos proyectos fueran útiles para toda la comunidad de supernovas, no solo para nuestro grupo. Hay tantos proyectos que se pueden hacer con estos datos que nunca podríamos hacerlos todos nosotros mismos". Berger agregó: "Estos proyectos son datos abiertos para ciencia abierta".

Este proyecto fue financiado en parte por una subvención de la National Science Foundation (NSF) y la Harvard Data Science Initiative (HDSI).

SuperRAENN: una tubería de clasificación fotométrica de supernova semi-supervisada entrenada en supernovas Pan-STARRS1 Medium Deep Survey, A. Villar et al, The Astrophysical Journal, 2020 17 de diciembre
[doi: 10.3847 / 1538-4357 / abc6fd, preimpresión: https://arxiv.org/pdf/2008.04921.pdf]

Clasificación fotométrica de 2315 supernovas Pan-STARRS1 con Superphot por G. Hosseinzadeh et al, The Astrophysical Journal, 17 de diciembre de 2020
[doi: 10.3847 / 1538-4357 / abc42b, preimpresión: https://arxiv.org/pdf/2008.04912.pdf]

Acerca del Centro de Astrofísica | Harvard y Smithsonian

Con sede en Cambridge, MA, el Centro de Astrofísica (CfA) | Harvard & Smithsonian es una colaboración entre el Observatorio Astrofísico Smithsonian y el Observatorio de la Universidad de Harvard. Los científicos de CfA estudian el origen, la evolución y el destino final del universo.


La inteligencia artificial clasifica las explosiones de supernovas con una precisión sin precedentes

10.000 supernovas descubiertas cada año. Cuando el Observatorio Rubin esté en línea, solo el 0,1 por ciento de los descubrimientos esperados de supernovas se estudiarán más a fondo sin el nuevo software. Cuota:

La inteligencia artificial clasifica explosiones de supernovas reales sin el uso tradicional de espectros, gracias a un equipo de astrónomos del Centro de Astrofísica | Harvard y Smithsonian. Los conjuntos de datos completos y las clasificaciones resultantes están disponibles públicamente para uso abierto.

Al entrenar un modelo de aprendizaje automático para categorizar supernovas en función de sus características visibles, los astrónomos pudieron clasificar datos reales de la encuesta Pan-STARRS1 Medium Deep para 2,315 supernovas con una tasa de precisión del 82 por ciento sin el uso de espectros.

Los astrónomos desarrollaron un programa de software que clasifica diferentes tipos de supernovas en función de sus curvas de luz o cómo cambia su brillo con el tiempo. "Tenemos aproximadamente 2.500 supernovas con curvas de luz de la Pan-STARRS1 Medium Deep Survey, y de esas, 500 supernovas con espectros que se pueden utilizar para la clasificación", dijo Griffin Hosseinzadeh, investigador postdoctoral de la CfA y autor principal de la primera de dos artículos publicados en El diario astrofísico. "Entrenamos al clasificador usando esas 500 supernovas para clasificar las supernovas restantes donde no pudimos observar el espectro".

Edo Berger, astrónomo de la CfA explicó que al pedirle a la inteligencia artificial que responda preguntas específicas, los resultados se vuelven cada vez más precisos. "El aprendizaje automático busca una correlación con las 500 etiquetas espectroscópicas originales. Le pedimos que compare las supernovas en diferentes categorías: color, tasa de evolución o brillo. Al alimentarlo con el conocimiento real existente, conduce a la mayor precisión, entre 80 y 90 por ciento ".

Aunque este no es el primer proyecto de aprendizaje automático para la clasificación de supernovas, es la primera vez que los astrónomos han tenido acceso a un conjunto de datos reales lo suficientemente grande como para entrenar un clasificador de supernovas basado en inteligencia artificial, lo que hace posible crear algoritmos de aprendizaje automático sin el uso de simulaciones.

"Si hace una curva de luz simulada, significa que está haciendo una suposición sobre cómo se verán las supernovas, y su clasificador también aprenderá esas suposiciones", dijo Hosseinzadeh. "La naturaleza siempre presentará algunas complicaciones adicionales que usted no tuvo en cuenta, lo que significa que su clasificador no funcionará tan bien con datos reales como lo hizo con datos simulados. Debido a que usamos datos reales para entrenar a nuestros clasificadores, significa nuestra precisión medida es probablemente más representativo del rendimiento de nuestros clasificadores en otras encuestas ". Como el clasificador categoriza las supernovas, dijo Berger, "podremos estudiarlas tanto en retrospectiva como en tiempo real para seleccionar los eventos más interesantes para un seguimiento detallado. Usaremos el algoritmo para ayudarnos a seleccionar las agujas". y también para mirar el pajar ".

El proyecto tiene implicaciones no solo para los datos de archivo, sino también para los datos que serán recopilados por futuros telescopios. Se espera que el Observatorio Vera C. Rubin esté en línea en 2023 y conducirá al descubrimiento de millones de nuevas supernovas cada año. Esto presenta tanto oportunidades como desafíos para los astrofísicos, donde el tiempo limitado del telescopio conduce a clasificaciones espectrales limitadas.

"Cuando el Observatorio Rubin esté en línea, aumentará nuestra tasa de descubrimiento de supernovas en 100 veces, pero nuestros recursos espectroscópicos no aumentarán", dijo Ashley Villar, Simons Junior Fellow en la Universidad de Columbia y autora principal del segundo de los dos artículos. , agregando que si bien actualmente se descubren aproximadamente 10,000 supernovas cada año, los científicos solo toman espectros de aproximadamente el 10 por ciento de esos objetos. "Si esto es cierto, significa que sólo el 0,1 por ciento de las supernovas descubiertas por el Observatorio Rubin cada año recibirán una etiqueta espectroscópica. El 99,9 por ciento restante de los datos no se podrán utilizar sin métodos como el nuestro".

A diferencia de los esfuerzos anteriores, donde los conjuntos de datos y las clasificaciones solo estaban disponibles para un número limitado de astrónomos, los conjuntos de datos del nuevo algoritmo de aprendizaje automático se pondrán a disposición del público. Los astrónomos han creado un software accesible y fácil de usar, y también han publicado todos los datos de Pan-STARRS1 Medium Deep Survey junto con las nuevas clasificaciones para su uso en otros proyectos. Hosseinzadeh dijo: "Para nosotros era muy importante que estos proyectos fueran útiles para toda la comunidad de supernovas, no solo para nuestro grupo. Hay tantos proyectos que se pueden hacer con estos datos que nunca podríamos hacerlos todos nosotros mismos". Berger agregó: "Estos proyectos son datos abiertos para ciencia abierta".

Este proyecto fue financiado en parte por una subvención de la National Science Foundation (NSF) y la Harvard Data Science Initiative (HDSI).


Respuestas y respuestas

Es mas lento. Pero no mucho. Si comparamos el paso del tiempo aquí en la Tierra con el paso del tiempo cerca del centro de un vacío intergaláctico, la diferencia en el tiempo resulta ser algo del orden de unos pocos días si no recuerdo mal. Entonces, más de 13 mil millones de años, la diferencia es minúscula. La diferencia en el paso del tiempo cerca de la galaxia pero no dentro de la esfera de influencia de ninguna estrella en comparación con un vacío intergaláctico es aún menor, ya que no estás cerca de un objeto masivo.

La cantidad de masa necesaria para causar una dilatación significativa en el tiempo cerca / dentro de las galaxias es mucho más grande de lo observado.

Es mas lento. Pero no mucho. Si comparamos el paso del tiempo aquí en la Tierra con el paso del tiempo cerca del centro de un vacío intergaláctico, la diferencia en el tiempo resulta ser algo del orden de unos pocos días si no recuerdo mal. Entonces, más de 13 mil millones de años, la diferencia es minúscula. La diferencia en el paso del tiempo cerca de la galaxia pero no dentro de la esfera de influencia de ninguna estrella en comparación con un vacío intergaláctico es aún menor, ya que no estás cerca de un objeto masivo.

La cantidad de masa necesaria para causar una dilatación significativa en el tiempo cerca / dentro de las galaxias es mucho más grande de lo observado.

Eso es GR, no SR. Y sí, violaría GR si la dilatación del tiempo no ocurriera cerca de objetos masivos.

Según el artículo de la página 2:

Barbour (y por lo tanto Wiltshire) básicamente deja de usar GR a favor de su propia teoría. De alguna manera, hace una teoría en la que el tiempo es emergente en lugar de fundamental. ¿Está en lo correcto? No lo sabemos. Dudo que haya alguna evidencia experimental clara que apoye a Barbour y Wiltshire sobre las teorías y modelos cosmológicos estándar. De lo contrario, sería una gran noticia.

La más probable El caso es que la teoría de Barbour es incorrecta. Eso no quiere decir que no sepa lo que está haciendo, solo que la gran mayoría de las nuevas teorías y modelos resultan ser incorrectos una vez que se acumulan más datos y obtenemos una mejor comprensión de la física.

Aún no he examinado los detalles de la teoría, pero solo mirando su relación distancia / corrimiento al rojo con su modelo (Fig.1), la desviación entre su modelo y ## Lambda ## CDM divergerá significativamente en corrimientos al rojo más altos. Este modelo probablemente ya esté descartado por las observaciones de supernovas de alto corrimiento al rojo.

Aún no he examinado los detalles de la teoría, pero solo mirando su relación distancia / corrimiento al rojo con su modelo (Fig.1), la desviación entre su modelo y ## Lambda ## CDM divergerá significativamente en corrimientos al rojo más altos. Este modelo probablemente ya esté descartado por las observaciones de supernovas de alto corrimiento al rojo.

Al examinar el artículo con más detalle, muestran que pueden ajustarse a los estudios actuales de supernovas a gran escala (no sé si se incluye el número relativamente pequeño de supernovas de alto corrimiento al rojo que se han observado hasta la fecha). Pero también predicen parámetros del modelo que divergen bastante de las estimaciones observacionales actuales, lo que probablemente significa que no pueden ajustarse a una gran combinación de datos.

Quizás incluso peor, "ajustan" los datos aumentando drásticamente las barras de error en los parámetros del modelo. Tal aumento probablemente significa que el ajuste es falso: han presentado un modelo que puede ajustarse a una variedad mucho más amplia de datos de supernovas que el modelo CDM ## Lambda ##.

Finalmente, estoy bastante seguro de que su modelo fallaría por completo en ajustarse a los datos de oscilación acústica de Baryon, especialmente si se combina con los datos de CMB.

En general, creo que el modelo es bastante interesante. Y ciertamente no es una completa tontería: es un intento serio de proponer una alternativa razonable a la cosmología estándar. Pero no creo que pueda ajustarse a los datos que tenemos, no cuando se juntan todos.

Por lo tanto, pueden hacer un modelo en el que el espacio vacío tiene un tiempo significativamente más rápido que cerca de la galaxia o la masa.
¿Algún físico ha presentado algún modelo en el que la materia oscura o el sector oscuro tenga un tiempo de ejecución diferente al de nuestra materia visible?

Si no hay ninguno. ¿Qué tipo de modelo donde hay otro sector (no necesariamente materia oscura pero podrían ser otros como otras branas o multiverso) con el tiempo corriendo a ritmos diferentes al nuestro? Esto tendría mucho más sentido.

Puedes hacer lo que quieras con una teoría. Pero a menos que refleje la realidad, no es una herramienta útil.

No conozco ninguna teoría confiable que modele el tiempo de esta manera.

Cualquiera de estas teorías sería muy teórico y lo más probable es que ni siquiera tenga sentido para alguien que no esté familiarizado con los detalles matemáticos de la teoría.

No creo que sea una declaración significativa. ¿Cómo mides el tiempo, después de todo?

For normal matter, we can measure time using the amount of time various physical processes take, such as nuclear decays. But it's impossible to compare those time scales to dark matter: even if we knew what the dark matter particle was, the physics that govern its behavior would be so completely different from normal matter that there would be no way to compare, say, the half-life of a cesium atom to anything that dark matter does, because there is no such thing as a cesium atom made out of dark matter.

I don't think that's a meaningful statement to make. How are you measuring time, after all?

For normal matter, we can measure time using the amount of time various physical processes take, such as nuclear decays. But it's impossible to compare those time scales to dark matter: even if we knew what the dark matter particle was, the physics that govern its behavior would be so completely different from normal matter that there would be no way to compare, say, the half-life of a cesium atom to anything that dark matter does, because there is no such thing as a cesium atom made out of dark matter.

Both normal and dark matter rotate under the influence of the same gravitational laws as far as we know. However, we've never seen dark matter move because we can only detect its gross (i.e. "widescale") gravitational influences on normal matter. We can't locate a 'clump' of dark matter and watch it for a few years as it moves around since it doesn't clump up like regular matter. But it is still believed to follow the same gravitational laws as normal matter. Thus the distribution and motion of dark matter and normal matter vary greatly and I am confident in saying that the rotational speed of normal and dark matter don't match up one bit. In fact, I think dark matter particles are believed to take highly elliptical trajectories, where they spend a great deal of time traveling slowly out in the 'halo' around the galaxy, before gravity pulls them inward near the core where they accelerate, pass through the disk and core, and then decelerate as they move back out of the galaxy towards the halo.

There's no reasonable mechanism for dark matter and normal matter to have an impact on the flow of time for other particles beyond their gravitational influence. The same mass (as measured by gravitational attraction) must have the exact same impact on time regardless of the source.

And by the way, gravitational time dilation is pretty much negligible for most anything that isn't right next to the horizon of a black hole.

Barbour's model is completely independent of this discussion. His model is an alternative way of understanding time as an emergent property of matter fields. It's been quite a while since I looked at Shape Dynamics (he gave a talk at the school I worked at something like 8 years ago or so, and we had a stimulating discussion afterwards). But from what I remember it doesn't actually result in a theory which offers any theoretical predictions distinct from General Relativity that are measurable today. What it does provide is a fundamentally different way of understanding the relationship between space and time (with space being fundamental and time being an emergent property). This fundamentally different formulation might also provide a completely new way of quantizing gravity, one that avoids the difficulties of previous attempts to do so.

None of that suggests there's any possible way for Shape Dynamics to provide a mechanism for dark matter to influence time differently from normal matter.

BTW, for any readers of this thread who are interested in theory, I do highly recommend reading up on Shape Dynamics. It really is a clever and fascinating theory. This rather lengthy paper provides a good description of the theory and its motivations:
https://arxiv.org/abs/1409.0105

I don't know how to interpret the likelihood of Shape Dynamics, because it's (mostly) just a different way of conceptualizing General Relativity. But it's really neat how they can arrive at a theory with nearly identical dynamics starting from an utterly different physical basis. The small discrepancy, by the way, appears to be related to the fact that Shape Dynamics is invariant under Weyl transformations, while General Relativity is not. The lack of Weyl invariance in GR is a significant wart on the theory that makes it seem unphysical: Weyl transformations involve an overall rescaling of coordinates, and the dynamics of the theory really shouldn't depend upon coordinate choice. The fact that Shape Dynamics produces a nearly-identical theory without this wart is rather compelling.

But because it isn't really possible to fix this wart while retaining identical dynamics, Shape Dynamics and General Relativity are (subtly) different, in that solutions to one are not necessarily solutions to the other. Those differences haven't been fully explored yet.


Contenido

In early Forerunner history, the Forerunners attempted to manipulate several stars in their region of space. They subsequently failed and caused several stars to supernova, leaving their homeworld heavily irradiated and uninhabitable. ΐ]

Before their defeat at the hands of the Flood, and the firing of the Halo Array, the Forerunner fleet had "the capacity to force premature stellar collapse," creating an artificial supernova, used to destroy entire star systems taken by the Flood. Α]

According to the San'Shyuum, a supernova destroyed the species' homeworld, Janjur Qom, in 648 BCE. Β] However, many members of the Covenant doubted this claim. & # 915 & # 93

During the Battle of the Etran Harborage in 2531, Professor Ellen Anders came up with a plan to destroy the shield world and its fleet of Forerunner Sojourner-class dreadnoughts by taking the FTL reactor of the UNSC Spirit of Fire and detonating it inside the installation's internal star. This would cause the star to go supernova and obliterate the shield world. Δ] Due to damage sustained during an attack by Covenant forces, Sergeant John Forge was forced to take the reactor into the star and detonate it manually. As the Spirit of Fire escaped the shield world, the internal star went supernova, destroying the planet and the Forerunner fleet, thwarting the Covenant plan. Ε] Ζ] A debris field persisted until 2557 when a massive UNSC fleet destroyed the debris with a massive bombardment of nuclear weapons. Η]

In 2552, Spartan John-117 destroyed Halo Installation 04 by detonating the fusion reactors of the crashed UNSC Pillar of Autumn. ⎖] The explosion created supernova-like temperatures and created a new element on the Alpha Shard, a fragment of the installation that was propelled through slipspace to orbit a red giant. This new element was fatal to humans and was turned into a bioweapon by terrorists. After the source of the new element was traced to Alpha Shard following the terrorist attack on Sedra City, Private Talitha Macer correctly surmised that the supernova effects of the destruction of Installation 04 created it, confirmed by the lack of the element anywhere else in the known universe. A joint mission by an ONI-Sedran Colonial Guard team destroyed the deposits of this new element with a HAVOK tactical nuclear weapon. ⎗]

At the close of the Requiem Campaign in 2558, the leader of a Covenant remnant, Jul 'Mdama, put the shield world Requiem on a collision course with the system's sun, Epoloch. When the shield world was absorbed by the sun, the star went into a supernova state and exploded, nearly destroying the UNSC Infinity which narrowly escaped the shockwave into slipspace. ⎘]


Nearby Supernova Explosions Triggered End-Pliocene Marine Mass Extinction, Researchers Say

Approximately 2.6 million years ago (Pliocene epoch), a tsunami of cosmic energy from a massive supernova or a series of them about 150 light-years away reached Earth and pummeled the atmosphere, touching off climate change and triggering the mass extinction of large marine animals, according to University of Kansas Professor Adrian Melott and co-authors.

An artist’s rendition of a supernova explosion. Image credit: ESA / Hubble / L. Calcada / NASA’s Goddard Space Flight Center.

“Recent papers revealing ancient seabed deposits of a radioactive isotope of iron called iron-60 provided strong evidence of the timing and distance of supernovae,” said Professor Melott, lead author of a paper published in the journal Astrobiology.

“Because iron-60 is radioactive, if it was formed with the Earth it would be long gone by now. So, it had to have been rained down on us.”

“There’s some debate about whether there was only one supernova really nearby or a whole chain of them. I kind of favor a combo of the two — a big chain with one that was unusually powerful and close.”

Other evidence for a series of supernovae is found in the very architecture of the local Universe.

“We have the Local Bubble in the interstellar medium. We’re right on its edge. It’s a giant region about 300 light-years long,” Professor Melott said.

“It’s basically very hot, very low-density gas — nearly all the gas clouds have been swept out of it.”

“The best way to manufacture a bubble like that is a whole bunch of supernovae blows it bigger and bigger, and that seems to fit well with idea of a chain.”

Whether or not there was one supernova or a series of them, the supernova energy that spread layers of iron-60 all over the world also caused penetrating particles called muons to shower Earth, causing cancers and mutations — especially to larger animals.

“Muons are very penetrating. Even normally, there are lots of them passing through us. Nearly all of them pass through harmlessly, yet about one-fifth of our radiation dose comes by muons. But when this wave of cosmic rays hits, multiply those muons by a few hundred,” Professor Melott said.

“Only a small faction of them will interact in any way, but when the number is so large and their energy so high, you get increased mutations and cancer — these would be the main biological effects.”

“We estimated the cancer rate would go up about 50% for something the size of a human — and the bigger you are, the worse it is. For an elephant or a whale, the radiation dose goes way up.”

The end-Pliocene extinction was concentrated in coastal waters, where larger organisms would catch a greater radiation dose from the muons.

“Damage from muons would extend down hundreds of yards into ocean waters, becoming less severe at greater depths,” the researchers said.

“High energy muons can reach deeper in the oceans being the more relevant agent of biological damage as depth increases.”

“Indeed, large and fierce marine animals inhabiting shallower waters may have been doomed by the supernova radiation.”

One of the extinctions that happened 2.6 million years ago was Carcharocles megalodon, the largest shark that ever lived on Earth.

Carcharocles megalodon was about the size of a school bus,” Professor Melott said.

“This species just disappeared about that time. So, we can speculate it might have something to do with the muons. Basically, the bigger the creature is the bigger the increase in radiation would have been.”

Adrian L. Melott et al. Hypothesis: Muon Radiation Dose and Marine Megafaunal Extinction at the End-Pliocene Supernova. Astrobiology, published online November 27, 2018 doi: 10.1089/ast.2018.1902


Janka, H.-T., Langanke, K., Marek, A., Martnez-Pinedo, G. & Müller, B. Theory of core-collapse supernovae. Phys. Rep. 442, 38–74 (2007).

Gal-Yam, A. & Leonard, D. C. A massive hypergiant star as the progenitor of the supernova SN 2005gl. Nature 458, 865–867 (2009).

Foley, R. J. et al. The diversity of massive star outbursts. I. Observations of SN2009ip, UGC 2773 OT2009-1, and their progenitors. Astrophys. J. 732, 32 (2011).

Zhang, T. et al. Type IIn supernova SN 2010jl: optical observations for over 500 days after explosion. Astron. J. 144, 131 (2012).

Mauerhan, J. C. et al. The unprecedented 2012 outburst of SN 2009ip: a luminous blue variable star becomes a true supernova. Mon. No. R. Astron. Soc. 430, 1801–1810 (2013).

Nicholl, M. et al. Slowly fading super-luminous supernovae that are not pair-instability explosions. Nature 502, 346–349 (2013).

Terreran, M. et al. Hydrogen-rich supernovae beyond the neutrino-driven core-collapse paradigm. Nature 1, 713–720 (2017).

Sumiyoshi, K., Yamada, S., Suzuki, H. & Chiba, S. Neutrino signals from the formation of black hole: a probe of equation of state of dense matter. Phys. Rev. Lett. 97, 091101 (2006).

Fischer, T., Whitehouse, S. C., Mezzacappa, A., Thielemann, F.-K. & Liebendörfer, M. The neutrino signal from protoneutron star accretion and black hole formation. Astron. Astrophys. 499, 1–15 (2009).

O’Connor, E. & Ott, C. D. Black hole formation in failing core-collapse supernovae. Astrophys. J. 730, 70 (2011).

Chan, C., Müller, B., Heger, A., Pakmor, R. & Springel, V. Black hole formation and fallback during the supernova explosion of a 40 METRO star. Astrophys. J. 852, L19 (2017).

Woosley, S., Heger, A. & Weaver, T. The evolution and explosion of massive stars. Rev. Mod. Phys. 74, 1015–1071 (2002).

Umeda, H. & Nomoto, K. How much Ni-56 can be produced in core-collapse supernovae? Evolution and explosions of 30–100 METRO stars. Astrophys. J. 673, 1014 (2008).

Antoniadis, J. et al. A massive pulsar in a compact relativistic binary. Ciencias 340, 448 (2013).

Fonseca, E. et al. The NANOGrav nine-year data set: mass and geometric measurements of binary millisecond pulsars. Astrophys. J. 832, 167 (2016).

Liebendörfer, M. et al. A finite difference representation of neutrino radiation hydrodynamics for spherically symmetric general relativistic supernova simulations. Astrophys. J. Suppl. 150, 263 (2004).

Typel, S., Röpke, G., Klähn, T., Blaschke, D. & Wolter, H. Composition and thermodynamics of nuclear matter with light clusters. Phys. Rev. C 81, 015803 (2010).

Danielewicz, P., Lacey, R & Lynch, W. G. Determination of the equation of state of dense matter. Ciencias 298, 1592–1596 2002).

Lattimer, J. M. & Lim, Y. Constraining the symmetry parameters of the nuclear interaction. Astrophys. J. 771, 51 (2013).

Krüger, T., Tews, I., Hebeler, K. & Schwenk, A. Neutron matter from chiral effective field theory interactions. Phys. Rev. C 88, 025802 (2013).

Abbott, B. P. et al. GW170817: observation of gravitational waves from a binary neutron star inspiral. Phys. Rev. Lett. 119, 161101 (2017).

Bazavov, A. et al. Equation of state in (2 + 1)-flavor QCD. Phys. Rev. D 90, 094503 (2014).

Borsányi, S. et al. Full result for the QCD equation of state with 2 + 1 flavors. Phys. Lett. B 730, 99 (2014).

Bazavov, A. et al. The chiral and deconfinement aspects of the QCD transition. Phys. Rev. D 85, 054503 (2012).

Kurkela, A., Fraga, E. S., Schaffner-Bielich, J. & Vuorinen, A. Constraining neutron star matter with quantum chromodynamics. Astrophys. J. 789, 127 (2014).

Farhi, E. & Jaffe, R. Strange matter. Phys. Rev. D 30, 2379 (1984).

Nambu, Y. & Jona-Lasinio, G. Dynamical model of elementary particles based on an analogy with superconductivity. 1. Phys. Rev. 122, 345 (1961).

Takahara, M. & Sato, K. Phase transition in the newly born neutron star and neutrino emission from SN1987A. Prog. Theor. Phys. 80, 861–867 (1988).

Gentile, N. A., Aufderheide, M. B., Mathews, G. J., Swesty, F. D. & Fuller, G. M. The QCD phase transition and supernova core collapse. Astrophys. J. 414, 701 (1993).

Sagert, I. et al. Signals of the QCD phase transition in core-collapse supernovae. Phys. Rev. Lett. 102, 081101 (2009).

Nakazato, K., Sumiyoshi, K. & Yamada, S. Astrophysical implications of equation of state for hadron–quark mixed phase: compact stars and stellar collapses. Phys. Rev. D 77, 103006 (2008).

Kaltenborn, M. A. R., Bastian, N.-U. F. & Blaschke, D. B. Quark–nuclear hybrid star equation of state with excluded volume effects. Phys. Rev. D 96, 056024 (2017).

Horowitz, C. J., Moniz, E. J. & Negele, J. W. Hadron structure in a simple model of quark/nuclear matter. Phys. Rev. D 31, 1689 (1985).

Röpke, G., Blaschke, D. & Schulz, H. Pauli quenching effects in a simple string model of quark/nuclear matter. Phys. Rev. D 34, 3499 (1986).

Klähn, T. & Fischer, T. Vector interaction enhanced bag model for astrophysical applications. Astrophys. J. 810, 134 (2015).

Benić, S., Blaschke, D., Alvarez-Castillo, D. E., Fischer, T. & Typel, S. A new quark–hadron hybrid equation of state for astrophysics—I. High-mass twin compact stars. Astron. Astrophys. 577, A40 (2015).

De, S. et al. Constraining the nuclear equation of state with GW170817. Phys. Rev. Lett. 121, 091102 (2018).

Bethe, H. A. & Wilson, J. R. Revival of a stalled supernova shock by neutrino heating. Astrophys. J. 295, 14 (1985).

LeBlanc, J. M. & Wilson, J. R. A numerical example of the collapse of a rotating magnetized star. Astrophys. J. 161, 541 (1970).

Bisnovatyi-Kogan, G. S., Popov, I. P. & Samokhin, A. A. The magnetohydrodynamic rotational model of supernova explosion. Astrophys. Ciencia espacial. 41, 287–320 (1976).

Bruenn, S. W. et al. Axisymmetric ab initio core-collapse supernova simulations of 12–25 METRO stars. Astrophys. J. 767, L6 (2013).

Müller, B., Janka, H.-Th & Marek, A. A new multi-dimensional general relativistic neutrino hydrodynamics code for core-collapse supernovae. II. Relativistic explosion models of core-collapse supernovae. Astrophys. J. 756, 84 (2012).

Suwa, Y. et al. On the importance of the equation of state for the neutrino-driven supernova explosion mechanism. Astrophys. J. 764, 99 (2013).

Melson, T., Janka, H.-Th & Marek, A. Neutrino-driven supernova of a low-mass iron-core progenitor boosted by three-dimensional turbulent convection. Astrophys. J. 801, L24 (2015).

Wu, M.-R., Fernández, R., Martnez-Pinedo, G. & Metzger, B. D. Production of the entire range of r-process nuclides by black hole accretion disc outflows from neutron star mergers. Mon. No. R. Astron. Soc. 463, 2323–2334 (2016).

Smith, N. et al. SN 2006gy: discovery of the most luminous supernova ever recorded, powered by the death of an extremely massive star like η Carinae. Astrophys. J. 666, 1116 (2007).

Moriya, T. J. et al. Light-curve modelling of superluminous supernova 2006gy: collision between supernova ejecta and a dense circumstellar medium. Mon. No. R. Astron. Soc. 428, 1020–1035 (2013).

Mirizzi, A. et al. Supernova neutrinos: production, oscillations and detection. Riv. Nuovo Cimento 39, 1–112 (2016).

Dasgupta, B. et al. Detecting the QCD phase transition in the next Galactic supernova neutrino burst. Phys. Rev. D 81, 103005 (2010).

Tauris, T., Langer, N. & Kramer, M. Formation of millisecond pulsars with CO white dwarf companions—I. PSR J1614-2230: evidence for a neutron star born massive. Mon. No. R. Astron. Soc. 416, 2130–2142 (2011).

Tauris, T., Langer, N. & Kramer, M. Formation of millisecond pulsars with CO white dwarf companions—II. Accretion, spin-up, true ages and comparison to MSPs with He white dwarf companions. Mon. No. R. Astron. Soc. 425, 1601–1627 (2012).

Sukhbold, T., Ertl, T., Woosley, S. E., Brown, J. M. & Janka, H.-T. Core-collapse supernovae from 9 to 120 solar masses based on neutrino-powered explosions. Astrophys. J. 821, 45 (2016).

Paczyński, B. Evolutionary processes in close binary systems. Annu. Rev. Astron. Astrophys. 9, 183 (1971).

Özel, F., Psaltis, D., Narayan, R. & Santos Villarreal, A. On the mass distribution and birth masses of neutron stars. Astrophys. J. 757, 55 (2012).

Antoniadis, J. et al. The millisecond pulsar mass distribution: evidence for bimodality and constraints on the maximum neutron star mass. Preprint at https://arxiv.org/abs/1605.01665 (2016).

Mezzacappa, A. & Bruenn, S. A numerical method for solving the neutrino Boltzmann equation coupled to spherically symmetric stellar core collapse. Astrophys. J. 405, 669 (1993).

Liebendoerfer, M., Rosswog, S. & Thielemann, F.-K. An adaptive grid, implicit code for spherically symmetric, general relativistic hydrodynamics in comoving coordinates. Astrophys. J. Suppl. 141, 229 (2002).

Wu, M.-R., Qian, Y.-Z., Martnez-Pinedo, G., Fischer, T. & Huther, L. Effects of neutrino oscillations on nucleosynthesis and neutrino signals for an 18 METRO supernova model. Phys. Rev. D 91, 065016 (2015).

Scholberg, K. Supernova neutrino detection. Annu. Rev. Nucl. Part. Sci. 62, 81–103 (2012).

Patrignani, C. et al. (Particle Data Group) Review of particle physics. Chin. Phys. C 40, 100001 (2016).

Blinnikov, S. I. et al. Theoretical light curves for deflagration models of type Ia supernova. Astron. Astrophys. 453, 229–240 (2006).

Sorokina, E. I., Blinnikov, S. I., Nomoto, K., Quimby, R. & Tolstov, A. Type I superluminous supernovae as explosions inside non-hydrogen circumstellar envelopes. Astrophys. J. 829, 17 (2016).


Astronomer Uses Computers To Simulate Supernova Explosions

During its 15-billion-year or so lifetime, our Milky Way galaxy has been blasted with anywhere from 100 million to a billion supernova explosions. These "have progressively enriched it with the oxygen we breathe, the iron in our cars, the calcium in our bones and the silicon in the rocks at our feet," University of Arizona astronomy Professor Adam S. Burrows says in a cover story published in today's (February 17) Nature.

Supernovae explode with forces of incomprehensible magnitude. If you write it in numbers, a supernova explodes with something like the force of 25 hundred trillion trillion Megatonnes of TNT . Or, you can think of it as the force of the simultaneous explosion of 25 hundred trillion trillion nuclear weapons.

"It's not of terrestrial magnitude," Burrows said in an interview earlier this week. "It's its own scale. It would be like taking hundreds of Earths and converting that mass to energy. It would be energy comparable to the total amount of energy the sun radiates in 10 billion years, although the supernova explosion is the energy of motion rather than light. And the supernova explosion happens not over billions of years but in a matter of seconds."

Burrows and others who mathematically simulate these explosions with powerful computing show that these events unfold not only with amazing magnitude and speed but also with incredible beauty. For a look, check the images and quick-time movies on Burrows' web site, http://jupiter.as.arizona.edu/

Supernova explosions influence the birth of stars, are the source of the energetic cosmic-rays that irradiate us on Earth, and, collectively, by their prodigious energy and momentum during the birth of galaxies in the infant universe, may have helped shape the galaxies themselves, Burrows writes in Nature.

However, two recent developments have landed supernovae on astrophysics' center stage, Burrows says. One is the role of supernovae in measuring the geometry of the universe. The other is a growing appreciation that supernovae are implicated in the decades-old mystery of the origin of cosmic ray bursts.

One kind of supernovae, a sub-type classified Type 1a, is arguably astronomy's most accurate probe of the scale and geometry of the universe. They are useful as the cosmologist's "standard candle," or events of observable, known brightness that can be used as yardsticks in measuring cosmological distances. They are used in studying the Hubble constant, or the rate at which the universe is expanding.

Recently, as astronomers have begun studying Type 1a supernovae at very great distances, they believe they are beginning to see the curvature of the universe.

"What they believe their data says - and I'm not entirely convinced yet - is that the universe is not only expanding, but accelerating," Burrows says. "It can't accelerate with the normal material we know dominating its gravity - not just 'baryon' matter, the stuff of which stars and people are made - and not even just 'dark matter,' the unseen material suspected perhaps to be in the halo of our galaxy and close to the mass of our galaxy."

If the new data are right and the universe is accelerating as it expands, something else - a very big something else - is going on, Burrows says. It might be something to do with what Einstein called the cosmological constant. It might be associated with some sort of 'vacuum energy' of the universe, something that isn't particulate, that isn't dark matter, that doesn't radiate but is still matter.

"We don't know how to approach this yet. Some people say it could be a cosmological constant. Or, it could be something that slowly varies over a long, long time," Burrows says. "But the upshot is that a new component of the universe may have been discovered. If these data hold up, supernovae will have made a major contribution in the discovery of something very, very fundamental in the universe."

Another kind of supernovae might answer a question so long-standing it turned hair gray: What is the source of gamma ray bursts, events sometimes more energetic than even supernova explosions?

It will take a lot more study to know for sure. But there is growing evidence that gamma ray bursts are somehow triggered in the collapse of massive star cores into black holes, a type of supernova explosion that is very different from typical supernovae. There's a delay in the explosion of these rarer supernovae, but they then perhaps explode more vigorously, firing jets of very light debris particles at the speed of light with very great energies as they go. Burrows reviews the evidence in the Nature article.

It would take only a small fraction of supernovae to produce all the gamma ray bursts we see, Burrows says. In our own Milky Way, a supernova explodes every 100 years. A supernova explosion once every million years could explain the entire population of gamma ray bursts peppered throughout the universe, Burrows says.

Story Source:

Materials provided by University Of Arizona. Note: Content may be edited for style and length.


Ver el vídeo: explosion 10t TNT PEGASE (Julio 2022).


Comentarios:

  1. Awarnach

    Estoy totalmente de acuerdo con usted. Hay algo en esto y creo que esta es una gran idea. Estoy de acuerdo contigo.

  2. Kahleil

    Con talento...

  3. Kemal

    Todavía recuerdas el siglo XVIII

  4. Chochmo

    Creo que esta es la forma incorrecta. Y de él es necesario rodar.

  5. Wambleesha

    Interesante. Estamos esperando nuevos mensajes sobre el mismo tema.

  6. Christy

    Cuales son las palabras correctas... Súper, frase brillante



Escribe un mensaje