Astronomia

Quais frações da matéria são retidas e deslocadas pelos quasares?

Quais frações da matéria são retidas e deslocadas pelos quasares?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Na sequência de uma consulta sobre a massa do quasar, que fração da matéria é ejetada em comparação com a matéria que é perdida para o BH?

Existe um gráfico que descreve as frações da massa dos quasares que contribuem para a radiação do disco, radiação da pluma e cavidade negra? (desculpe, não consigo pensar em uma palavra porque disco de acréscimo e acreção é confuso)


A indústria espacial em números

O tamanho do mercado global de espaço inteligente está projetado para crescer de US $ 9,4 bilhões em 2020 para US $ 15,3 bilhões até 2025, a uma taxa composta de crescimento anual (CAGR) de 10,2% durante o período de previsão. O crescente financiamento de capital de risco e os crescentes investimentos em tecnologia de espaço inteligente para impulsionar o crescimento do mercado.

Analistas do Morgan Stanley e Goldman Sachs previram que a atividade econômica no espaço se tornará um mercado multibilionário nas próximas décadas. A Equipe Espacial do Morgan Stanley estima que a indústria espacial global de cerca de US $ 350 bilhões poderá aumentar para mais de US $ 1 trilhão em 2040.

Fonte: Satellite Industry Association, Morgan Stanley Research, Thomson Reuters. * 2040 estimativas


Referências

Walsh, D., Carswell, R. F. & amp Weymann, R. J. Natureza 279, 381–384 (1979).

Wambsganss, J. Resenhas vivas na relatividade 1, No. 12 (1998) http://www.livingreviews.org/Articles/Volume1/1998-12wamb

King, L. J., Browne, I. W. A., Marlow, D. R., Patnaik, A. R. & amp Wilkinson, P. N. Seg. Não. R. Astron. Soc. 307, 225–235 (1999).

Paczynski, B. Astrophys. J. 304, 1–5 (1986).

Wyithe, J. S. B. & amp Loeb, A. Natureza 417, 923–925 (2002).

Fan, X. et al. Astron. J. 122, 2833–2849 (2001).

Rees, M. J. Annu. Rev. Astron. Astrophys. 22, 471–506 (1984).

Turner, E. L. Astron. J. 101, 5–17 (1991).

Haiman, Z. & amp Loeb, A. Astrophys. J. 503, 505–517 (2001).

Madau, P., Haardt, F. & amp Rees, M. J. Astrophys. J. 514, 648–659 (1999).

Turner, E. L., Ostriker, J. P. & amp Gott, J. R. Astrophys. J. 284, 1–22 (1984).


1. Introdução

Os quasares mostram um rico espectro de linhas de emissão provenientes de uma faixa lateral de espécies iônicas (por exemplo, Netzer, 2013). Diferenças nos perfis de linha, mudanças de linha, intensidades de linha sugerem diversidade em condições dinâmicas e níveis de ionização da região de linha larga (BLR Sulentic et al. 2000). Há um consenso geral de que o H & # x003B2 e as linhas de baixa ionização (LILs) em geral são ampliadas principalmente por meio do efeito Doppler da emissão de movimento virial do gás, enquanto as linhas de alta ionização (HILs) são mais afetadas pelo alargamento não virial, provavelmente associado a um vento de disco ou fluxos excessivos (por exemplo, Marziani et al., 1996 Elvis, 2000 Proga et al., 2000 Richards et al., 2011, para uma variedade de abordagens). A proeminência relativa do vento e do componente do disco reflete o equilíbrio diferente entre as forças de radiação e gravitação (Ferland et al., 2009 Marziani et al., 2010 Netzer e Marziani, 2010), e está mudando sistematicamente ao longo da sequência principal do quasar (MS) . Se o driver principal do diagrama de HR estelar pode ser considerado massa, para a sequência principal do quasar é a relação entre luminosidade e massa do buraco negro que aparentemente mais importa (Boroson e Green, 1992 Sulentic et al., 2000 Marziani et al., 2001 Shen e Ho, 2014 Sun e Shen, 2015 Panda et al., 2019). Além disso, ao contrário das estrelas, os quasares não são dotados de simetria esférica, mas apenas por simetria axial: o spin do buraco negro e o eixo do disco de acreção definem eixos de simetria e um plano preferencial (ou seja, o plano equatorial do buraco negro, o plano do disco de acreção interno). O aspecto torna-se um parâmetro importante para AGN. O efeito é mais perceptível na distinção entre o tipo 1 e o tipo 2 (obscurecido) AGN (por exemplo, Antonucci, 1993 Urry e Padovani, 1995), mas é relevante também para o tipo 1 AGN (não obscurecido), como o ângulo de visão (definido como o ângulo entre o eixo do disco e a linha de visão) pode variar entre 0 e 60 graus.

Citando Marziani et al. (2001), podemos dizer que & # x02026a correlação observada & # x02026 pode ser considerada se for impulsionada principalmente pela razão de luminosidade AGN para massa do buraco negro (eu/M & # x0221D eu/euEdd, Proporção de Eddington) convolvido com a orientação da fonte. Vários artigos de revisão recentes trataram da sequência principal do quasar (por exemplo, Sulentic et al., 2008 Sulentic e Marziani, 2015 Marziani et al., 2018b). Aqui, vamos resumir brevemente os conceitos básicos e tendências (seção 2), depois nos concentrando em uma classe particular de objetos, o Fe mais forteII emissores ao longo da sequência (seção 3). As bases das estimativas de luminosidade virial são então apresentadas na seção 4, também de forma dependente do ângulo aspecto. Os resultados preliminares para cosmologia são ilustrados na seção 5 usando H & # x003B2 e o AlIII& # x003BB1860 linha para alcançar uma ampla cobertura do redshift.


Os neutrinos estão definitivamente descartados como matéria escura?

Os neutrinos do Modelo Padrão Ordinário _são_ partículas de matéria escura, no sentido de que têm massa e interagem fracamente com todo o resto.

IIRC eles não são considerados candidatos satisfatórios porque quase todos os neutrinos no Universo são relativísticos, enquanto sabemos que a matéria escura observada é "aglomerada" e, portanto, deve ser composta de partículas não relativísticas.

Por que pensamos que os neutrinos são relativísticos? (1) todos os processos de geração de neutrinos hoje estão gerando neutrinos relativísticos, e (2) a grande maioria dos neutrinos deve ser primordial, de

1s após o Big Bang, quando os neutrinos se desacoplaram. Eles devem ter temperatura de

0,2 meV, mas com suas massas baixas, eles devem ter velocidades (quase) relativísticas até hoje.

No entanto, o argumento (2) assume que não perdemos nada e que não há nenhum processo desconhecido ou imprevisto que estava gerando neutrinos "frios". Vamos, para fins de argumentação, supor que houve algum processo desse tipo e que há um subconjunto de neutrinos CvB que é na verdade muito mais frio do que 2K.

Essa possibilidade está descartada?
Os neutrinos de baixa energia do IIRC têm seções transversais baixas, e os neutrinos CvB nunca foram observados diretamente (nem sua densidade nem sua velocidade). Eu me lembro disso errado?


Uma pequena reflexão mostrará que a lei da igualdade da massa inercial e gravitacional é equivalente à afirmação de que a aceleração conferida a um corpo por um campo gravitacional é independente da natureza do corpo. Para a equação de movimento de Newton em um campo gravitacional, escrita por extenso, é:

(Massa inercial) ⋅ < displaystyle cdot> (aceleração) = < displaystyle => (massa gravitacional).

Somente quando há igualdade numérica entre a massa inercial e a gravitacional é que a aceleração é independente da natureza do corpo. [1] [2]

Algo como o princípio da equivalência surgiu no início do século 17, quando Galileu expressou experimentalmente que a aceleração de uma massa de teste devido à gravitação é independente da quantidade de massa que está sendo acelerada.

Johannes Kepler, usando as descobertas de Galileu, mostrou conhecimento do princípio de equivalência ao descrever com precisão o que ocorreria se a lua parasse em sua órbita e caísse em direção à Terra. Isso pode ser deduzido sem saber se ou de que maneira a gravidade diminui com a distância, mas requer assumir a equivalência entre a gravidade e a inércia.

Se duas pedras fossem colocadas em qualquer parte do mundo próximas uma da outra, e além da esfera de influência de um terceiro corpo cognato, essas pedras, como duas agulhas magnéticas, se juntariam no ponto intermediário, cada uma se aproximando da outra por um espaço proporcional à massa comparativa do outro. Se a lua e a terra não fossem retidas em suas órbitas por sua força animal ou algum outro equivalente, a terra subiria até a lua por uma quinquagésima quarta parte de sua distância, e a lua cairia em direção à terra pelos outros cinquenta e três partes, e lá se encontrariam, assumindo, entretanto, que a substância de ambas é da mesma densidade.

A teoria gravitacional de Newton simplificou e formalizou as idéias de Galileu e Kepler ao reconhecer que a "força animal ou algum outro equivalente" de Kepler além da gravidade e da inércia não era necessária, deduzindo das leis planetárias de Kepler como a gravidade reduz com a distância.

O princípio da equivalência foi devidamente introduzido por Albert Einstein em 1907, quando observou que a aceleração dos corpos em direção ao centro da Terra a uma taxa de 1g (g = 9,81 m / s 2 sendo uma referência padrão de aceleração gravitacional na superfície da Terra) é equivalente à aceleração de um corpo em movimento inercial que seria observado em um foguete no espaço livre sendo acelerado a uma taxa de 1g. Einstein afirmou assim:

nós . assumir a equivalência física completa de um campo gravitacional e uma aceleração correspondente do sistema de referência.

Ou seja, estar na superfície da Terra equivale a estar dentro de uma espaçonave (longe de qualquer fonte de gravidade) que está sendo acelerada por seus motores. A direção ou vetor de equivalência de aceleração na superfície da Terra é "para cima" ou diretamente oposto ao centro do planeta, enquanto o vetor de aceleração em uma nave espacial é diretamente oposto à massa ejetada por seus propulsores. A partir desse princípio, Einstein deduziu que a queda livre é um movimento inercial. Objetos em queda livre não experimentam ser acelerados para baixo (por exemplo, em direção à terra ou outro corpo maciço), mas sim falta de peso e nenhuma aceleração. Em um referencial inercial, os corpos (e fótons, ou luz) obedecem à primeira lei de Newton, movendo-se em velocidade constante em linhas retas. Analogamente, em um espaço-tempo curvo, a linha mundial de uma partícula inercial ou pulso de luz é o mais direto possível (no espaço e Tempo). [4] Essa linha de mundo é chamada de geodésica e, do ponto de vista da estrutura inercial, é uma linha reta. É por isso que um acelerômetro em queda livre não registra nenhuma aceleração - não há nenhuma entre a massa interna de teste e o corpo do acelerômetro.

Por exemplo: um corpo inercial movendo-se ao longo de uma geodésica através do espaço pode ser preso em uma órbita em torno de uma grande massa gravitacional sem nunca experimentar aceleração. Isso é possível porque o espaço-tempo é radicalmente curvo nas proximidades de uma grande massa gravitacional. Em tal situação, as linhas geodésicas se dobram para dentro em torno do centro da massa e um corpo inercial de flutuação livre (sem peso) simplesmente seguirá essas curvas geodésicas em uma órbita elíptica. Um acelerômetro a bordo nunca registraria qualquer aceleração.

Em contraste, na mecânica newtoniana, a gravidade é considerada uma força. Essa força atrai objetos com massa para o centro de qualquer corpo massivo. Na superfície da Terra, a força da gravidade é neutralizada pela resistência mecânica (física) da superfície da Terra. Portanto, na física newtoniana, uma pessoa em repouso na superfície de um objeto maciço (não giratório) está em um sistema de referência inercial. Essas considerações sugerem o seguinte corolário do princípio de equivalência, que Einstein formulou precisamente em 1911:

Sempre que um observador detecta a presença local de uma força que atua sobre todos os objetos em proporção direta à massa inercial de cada objeto, esse observador está em um quadro de referência acelerado.

Einstein também se referiu a dois referenciais, K e K '. K é um campo gravitacional uniforme, enquanto K 'não tem campo gravitacional, mas é uniformemente acelerado de modo que os objetos nos dois referenciais experimentam forças idênticas:

Chegamos a uma interpretação muito satisfatória desta lei da experiência, se assumirmos que os sistemas K e K 'são fisicamente exatamente equivalentes, isto é, se assumirmos que podemos muito bem considerar o sistema K como estando em um espaço livre de campos gravitacionais, se considerarmos K como uniformemente acelerado. Essa suposição de equivalência física exata torna impossível falarmos da aceleração absoluta do sistema de referência, assim como a teoria da relatividade usual nos proíbe de falar da velocidade absoluta de um sistema e faz a queda igual de todos os corpos. em um campo gravitacional parece uma coisa natural.

Essa observação foi o início de um processo que culminou na relatividade geral. Einstein sugeriu que deveria ser elevado ao status de um princípio geral, que ele chamou de "princípio de equivalência" ao construir sua teoria da relatividade:

Enquanto nos restringirmos a processos puramente mecânicos no reino em que a mecânica de Newton domina, estaremos certos da equivalência dos sistemas K e K '. Mas esta nossa visão não terá qualquer significado mais profundo a menos que os sistemas K e K 'sejam equivalentes com respeito a todos os processos físicos, isto é, a menos que as leis da natureza com respeito a K estejam em total acordo com aquelas com respeito a K' . Ao assumir que assim seja, chegamos a um princípio que, se for realmente verdadeiro, tem grande importância heurística. Pois, por consideração teórica de processos que ocorrem relativamente a um sistema de referência com aceleração uniforme, obtemos informações sobre a carreira de processos em um campo gravitacional homogêneo.

Einstein combinou (postulou) o princípio de equivalência com a relatividade especial para prever que os relógios funcionam em taxas diferentes em um potencial gravitacional e os raios de luz se curvam em um campo gravitacional, mesmo antes de ele desenvolver o conceito de espaço-tempo curvo.

Portanto, o princípio de equivalência original, conforme descrito por Einstein, concluiu que a queda livre e o movimento inercial eram fisicamente equivalentes. Esta forma do princípio de equivalência pode ser declarada da seguinte maneira. Um observador em uma sala sem janelas não pode distinguir entre estar na superfície da Terra e estar em uma nave espacial no espaço profundo acelerando a 1g. Isso não é estritamente verdade, porque corpos massivos dão origem a efeitos de maré (causados ​​por variações na força e na direção do campo gravitacional) que estão ausentes em uma espaçonave em aceleração no espaço profundo. A sala, portanto, deve ser pequena o suficiente para que os efeitos das marés possam ser negligenciados.

Embora o princípio de equivalência guiou o desenvolvimento da relatividade geral, não é um princípio fundamental da relatividade, mas sim uma simples consequência do geométrico natureza da teoria. Na relatividade geral, os objetos em queda livre seguem a geodésica do espaço-tempo, e o que percebemos como a força da gravidade é, em vez disso, o resultado de sermos incapazes de seguir essas geodésicas do espaço-tempo, porque a resistência mecânica da matéria ou superfície da Terra nos impede de fazendo isso.

Desde que Einstein desenvolveu a relatividade geral, houve a necessidade de desenvolver uma estrutura para testar a teoria contra outras possíveis teorias da gravidade compatíveis com a relatividade especial. Isso foi desenvolvido por Robert Dicke como parte de seu programa para testar a relatividade geral. Dois novos princípios foram sugeridos, o chamado princípio de equivalência de Einstein e o princípio de equivalência forte, cada um dos quais assume o princípio de equivalência fraca como ponto de partida. Eles apenas diferem em se aplicarem ou não a experimentos gravitacionais.

Outro esclarecimento necessário é que o princípio da equivalência assume uma aceleração constante de 1g sem considerar a mecânica de geração de 1g. Se considerarmos a mecânica disso, então devemos assumir que a sala sem janelas mencionada tem uma massa fixa. Acelerar em 1g significa que há uma força constante sendo aplicada, que = m * g onde m é a massa da sala sem janelas junto com seu conteúdo (incluindo o observador). Agora, se o observador pular para dentro da sala, um objeto caído livremente no chão diminuirá de peso momentaneamente porque a aceleração vai diminuir momentaneamente devido ao observador empurrar para trás contra o chão para pular. O objeto então ganhará peso enquanto o observador está no ar e a massa diminuída resultante da sala sem janelas permite maior aceleração, ele perderá peso novamente quando o observador pousar e empurrar mais uma vez contra o chão e finalmente retornará ao seu peso inicial após. Para tornar todos esses efeitos iguais aos que mediríamos em um planeta produzindo 1g, deve-se presumir que a sala sem janelas tem a mesma massa desse planeta. Além disso, a sala sem janelas não deve causar sua própria gravidade, caso contrário, o cenário muda ainda mais. Esses são aspectos técnicos, claramente, mas práticos, se quisermos que o experimento demonstre mais ou menos precisamente a equivalência de 1g de gravidade e 1g de aceleração.

Três formas do princípio de equivalência estão em uso: fraco (galileu), einsteiniano e forte.

O princípio de equivalência fraca Editar

O princípio de equivalência fraca, também conhecido como universalidade de queda livre ou o Princípio de equivalência de Galileu pode ser declarado de várias maneiras. O EP forte, uma generalização do EP fraco, inclui corpos astronômicos com energia de auto-ligação gravitacional [5] (por exemplo, 1,74 pulsar de massa solar PSR J1903 + 0327, 15,3% de cuja massa separada está ausente como energia de ligação gravitacional [6 ] [ falha na verificação ]). Em vez disso, o EP fraco assume que os corpos em queda são autolimitados apenas por forças não gravitacionais (por exemplo, uma pedra). De qualquer jeito:

A trajetória de um ponto de massa em um campo gravitacional depende apenas de sua posição e velocidade iniciais, e é independente de sua composição e estrutura. Todas as partículas de teste no mesmo ponto do espaço-tempo, em um determinado campo gravitacional, sofrerão a mesma aceleração, independentemente de suas propriedades, incluindo sua massa de repouso. [7] Todos os centros locais de massa em queda livre (no vácuo) ao longo de trajetórias de ação mínimas idênticas (deslocadas em paralelo, mesma velocidade), independentemente de todas as propriedades observáveis. A linha de mundo do vácuo de um corpo imerso em um campo gravitacional é independente de todas as propriedades observáveis. Os efeitos locais do movimento em um espaço-tempo curvo (gravitação) são indistinguíveis daqueles de um observador acelerado em um espaço-tempo plano, sem exceção. Massa (medido com uma balança) e peso (medido com uma balança) estão localmente em proporções idênticas para todos os corpos (a página de abertura do de Newton Philosophiæ Naturalis Principia Mathematica, 1687).

Localidade elimina forças de maré mensuráveis ​​originadas de um campo gravitacional divergente radial (por exemplo, a Terra) sobre corpos físicos de tamanho finito. O princípio de equivalência "decrescente" abrange a conceituação de Galileu, Newton e Einstein. O princípio da equivalência não nega a existência de efeitos mensuráveis ​​causados ​​por um rotativo massa gravitando (arrasto de quadro), ou suporte nas medições de deflexão de luz e atraso de tempo gravitacional feitas por observadores não locais.

Massas ativas, passivas e inerciais Editar

Por definição de massa gravitacional ativa e passiva, a força em M1 < displaystyle M_ <1>> devido ao campo gravitacional de M 0 < displaystyle M_ <0>> é:

Da mesma forma, a força em um segundo objeto de massa arbitrária2 devido ao campo gravitacional de massa0 é:

Por definição de massa inercial:

Em outras palavras, a massa gravitacional passiva deve ser proporcional à massa inercial para todos os objetos.

deve ser igual e oposto a

Em outras palavras, a massa gravitacional passiva deve ser proporcional à massa gravitacional ativa para todos os objetos.

Testes do princípio de equivalência fraca Editar

Os testes do princípio da equivalência fraca são aqueles que verificam a equivalência da massa gravitacional e da massa inercial. Um teste óbvio é derrubar objetos diferentes, de preferência em um ambiente de vácuo, por exemplo, dentro da torre de queda Fallturm Bremen.

Ano Investigador Sensibilidade Método
500? Philoponus [14] "pequeno" Torre de queda
1585 Stevin [15] 5×10 −2 Torre de queda
1590? Galileo [16] 2×10 −2 Pêndulo, torre de queda
1686 Newton [17] 10 −3 Pêndulo
1832 Bessel [18] 2×10 −5 Pêndulo
1908 (1922) Eötvös [19] 2×10 −9 Balança de torção
1910 Southerns [20] 5×10 −6 Pêndulo
1918 Zeeman [21] 3×10 −8 Balança de torção
1923 Potter [22] 3×10 −6 Pêndulo
1935 Renner [23] 2×10 −9 Balança de torção
1964 Dicke, Roll, Krotkov [10] 3x10-11 Balança de torção
1972 Braginsky, Panov [24] 10 −12 Balança de torção
1976 Shapiro, et al. [25] 10 −12 Alcance do laser lunar
1981 Keizer, Faller [26] 4×10 −11 Suporte de fluido
1987 Niebauer, et al. [27] 10 −10 Torre de queda
1989 Stubbs, et al. [28] 10 −11 Balança de torção
1990 Adelberger, Eric G. et al. [29] 10 −12 Balança de torção
1999 Baessler, et al. [30] [31] 5x10 -14 Balança de torção
2017 MICROSCÓPIO [32] 10 −15 Órbita terrestre

Os experimentos ainda estão sendo realizados na Universidade de Washington que colocaram limites na aceleração diferencial dos objetos em direção à Terra, ao Sol e à matéria escura no centro da galáxia. Futuros experimentos de satélite [33] - STEP (Teste de Satélite do Princípio de Equivalência) e Galileo Galilei - testarão o princípio de equivalência fraca no espaço, com uma precisão muito maior.

Com a primeira produção bem-sucedida de antimatéria, em particular de anti-hidrogênio, uma nova abordagem para testar o princípio de equivalência fraca foi proposta. Experimentos para comparar o comportamento gravitacional da matéria e da antimatéria estão sendo desenvolvidos. [34]

As propostas que podem levar a uma teoria quântica da gravidade, como a teoria das cordas e a gravidade quântica em loop, prevêem violações do princípio de equivalência fraca porque contêm muitos campos escalares de luz com comprimentos de onda Compton longos, que devem gerar quintas forças e variação das constantes fundamentais. Os argumentos heurísticos sugerem que a magnitude dessas violações do princípio de equivalência pode estar na faixa de 10 −13 a 10 −18. [35] Os testes atualmente previstos do princípio de equivalência fraca estão se aproximando de um grau de sensibilidade tal que não descoberta de uma violação seria um resultado tão profundo quanto a descoberta de uma violação. A não descoberta da violação do princípio de equivalência neste intervalo sugeriria que a gravidade é tão fundamentalmente diferente de outras forças que requer uma grande reavaliação das tentativas atuais de unificar a gravidade com as outras forças da natureza. Uma detecção positiva, por outro lado, forneceria um importante guia para a unificação. [35]

O princípio de equivalência de Einstein Editar

O que agora é chamado de "princípio de equivalência de Einstein" afirma que o princípio de equivalência fraca é válido, e que: [36]

O resultado de qualquer experimento local não gravitacional em um laboratório em queda livre é independente da velocidade do laboratório e de sua localização no espaço-tempo.

Aqui, "local" tem um significado muito especial: não só o experimento não deve olhar para fora do laboratório, mas também deve ser pequeno em comparação com as variações do campo gravitacional, as forças das marés, de modo que todo o laboratório esteja caindo livremente. Também implica a ausência de interações com campos "externos" além do campo gravitacional. [ citação necessária ]

O princípio da relatividade implica que o resultado dos experimentos locais deve ser independente da velocidade do aparelho, então a conseqüência mais importante deste princípio é a ideia copernicana de que valores físicos adimensionais, como a constante de estrutura fina e elétron-próton a proporção de massa não deve depender de onde no espaço ou no tempo os medimos. Muitos físicos acreditam que qualquer teoria invariante de Lorentz que satisfaça o princípio de equivalência fraca também satisfaz o princípio de equivalência de Einstein.

Conjectura de Schiff sugere que o princípio de equivalência fraca implica o princípio de equivalência de Einstein, mas não foi provado. No entanto, os dois princípios são testados com tipos de experimentos muito diferentes. O princípio de equivalência de Einstein foi criticado como impreciso, porque não há uma maneira universalmente aceita de distinguir experimentos gravitacionais de não gravitacionais (ver, por exemplo, Hadley [37] e Durand [38]).

Testes do princípio de equivalência de Einstein Editar

Além dos testes do princípio de equivalência fraca, o princípio de equivalência de Einstein pode ser testado procurando a variação de constantes adimensionais e razões de massa. Os melhores limites atuais para a variação das constantes fundamentais foram estabelecidos principalmente pelo estudo do reator de fissão nuclear natural de Oklo, de ocorrência natural, onde reações nucleares semelhantes às que observamos hoje foram mostradas como tendo ocorrido no subsolo há aproximadamente dois bilhões de anos. Essas reações são extremamente sensíveis aos valores das constantes fundamentais.

Constante Ano Método Limite de variação fracionária
fator giromagnético de prótons 1976 astrofísico 10 −1
constante de interação fraca 1976 Oklo 10 −2
constante de estrutura fina 1976 Oklo 10 −7
razão de massa elétron-próton 2002 quasares 10 −4

Tem havido uma série de tentativas controversas de restringir a variação da constante de interação forte. Tem havido várias sugestões de que as "constantes" variam em escalas cosmológicas. O mais conhecido é a detecção relatada de variação (no nível 10-5) da constante de estrutura fina de medições de quasares distantes, ver Webb et al. [39] Outros pesquisadores [ quem? ] contestam essas conclusões. Outros testes do princípio de equivalência de Einstein são experimentos de desvio para o vermelho gravitacional, como o experimento Pound-Rebka, que testa a independência de posição dos experimentos.

O princípio de equivalência forte Editar

O princípio de equivalência forte sugere que as leis da gravitação são independentes da velocidade e localização. Em particular,

O movimento gravitacional de um pequeno corpo de teste depende apenas de sua posição inicial no espaço-tempo e velocidade, e não de sua constituição.

O resultado de qualquer experimento local (gravitacional ou não) em um laboratório em queda livre é independente da velocidade do laboratório e de sua localização no espaço-tempo.

A primeira parte é uma versão do princípio de equivalência fraca que se aplica a objetos que exercem uma força gravitacional sobre si mesmos, como estrelas, planetas, buracos negros ou experimentos Cavendish. A segunda parte é o princípio de equivalência de Einstein (com a mesma definição de "local"), reformulado para permitir experimentos gravitacionais e corpos autogravitantes. O objeto ou laboratório em queda livre, entretanto, ainda deve ser pequeno, de modo que as forças da maré possam ser desprezadas (daí "experimento local").

Esta é a única forma do princípio de equivalência que se aplica a objetos autogravitantes (como estrelas), que têm interações gravitacionais internas substanciais. Requer que a constante gravitacional seja a mesma em todo o universo e seja incompatível com uma quinta força. É muito mais restritivo do que o princípio de equivalência de Einstein.

O princípio de equivalência forte sugere que a gravidade é inteiramente geométrica por natureza (isto é, a métrica sozinha determina o efeito da gravidade) e não tem nenhum campo extra associado a ela. Se um observador mede um pedaço de espaço como plano, o princípio de equivalência forte sugere que é absolutamente equivalente a qualquer outro pedaço de espaço plano em qualquer parte do universo. A teoria da relatividade geral de Einstein (incluindo a constante cosmológica) é considerada a única teoria da gravidade que satisfaz o princípio de equivalência forte. Uma série de teorias alternativas, como a teoria de Brans-Dicke, satisfazem apenas o princípio de equivalência de Einstein.

Testes do princípio de equivalência forte Editar

O princípio de equivalência forte pode ser testado procurando uma variação da constante gravitacional de Newton G ao longo da vida do universo, ou equivalentemente, variação nas massas das partículas fundamentais. Uma série de restrições independentes, de órbitas no Sistema Solar e estudos de nucleossíntese do Big Bang mostraram que G não pode ter variado em mais de 10%.

Assim, o princípio de equivalência forte pode ser testado procurando por quintas forças (desvios da força gravitacional-lei prevista pela relatividade geral). Esses experimentos normalmente procuram por falhas no comportamento da gravidade da lei do inverso do quadrado (especificamente forças de Yukawa ou falhas do teorema de Birkhoff) no laboratório. Os testes mais precisos em curtas distâncias foram realizados pelo grupo Eöt – Wash. Um futuro experimento de satélite, SEE (Satellite Energy Exchange), buscará as quintas forças no espaço e deve ser capaz de restringir ainda mais as violações do princípio de equivalência forte. Outros limites, em busca de forças de alcance muito mais longo, foram colocados em busca do efeito Nordtvedt, uma "polarização" das órbitas do sistema solar que seria causada pela autoenergia gravitacional acelerando a uma taxa diferente da matéria normal. Este efeito foi testado com sensibilidade pelo Lunar Laser Ranging Experiment. Outros testes incluem estudar a deflexão da radiação de fontes de rádio distantes pelo sol, que pode ser medida com precisão por interferometria de linha de base muito longa. Outro teste sensível vem das medições da mudança de frequência dos sinais de e para a espaçonave Cassini. Juntas, essas medições impõem limites rígidos à teoria de Brans-Dicke e outras teorias alternativas da gravidade.

Em 2014, os astrônomos descobriram um sistema triplo estelar contendo um pulsar de milissegundo PSR J0337 + 1715 e duas anãs brancas orbitando-o. O sistema deu a eles a chance de testar o princípio de equivalência forte em um campo gravitacional forte com alta precisão. [40] [41] [42] [43]

Em 2020, um grupo de astrônomos analisando dados da amostra de Fotometria Spitzer e Curvas de Rotação Precisas (SPARC), juntamente com estimativas do campo gravitacional externo em grande escala de um catálogo de galáxias de todo o céu, concluiu que havia evidências altamente estatisticamente significativas de violações do princípio de equivalência forte em campos gravitacionais fracos na vizinhança de galáxias com suporte rotacional. [44] Eles observaram um efeito consistente com o efeito de campo externo da dinâmica Newtoniana Modificada (MOND), uma hipótese que propõe uma teoria da gravidade modificada além da Relatividade Geral, e inconsistente com os efeitos das marés no paradigma do modelo Lambda-CDM, comumente conhecido como o Modelo Padrão de Cosmologia.

Um desafio ao princípio de equivalência é a teoria de Brans-Dicke. A cosmologia de autocriação é uma modificação da teoria de Brans-Dicke.

Em agosto de 2010, pesquisadores da Universidade de New South Wales, da Swinburne University of Technology e da Cambridge University publicaram um artigo intitulado "Evidência para variação espacial da constante de estrutura fina", cuja conclusão provisória é que, "qualitativamente, [os] resultados sugere uma violação do Princípio de Equivalência de Einstein e poderia inferir um universo muito grande ou infinito, dentro do qual nosso volume de Hubble 'local' representa uma fração minúscula. " [45]

O físico holandês e teórico das cordas Erik Verlinde gerou uma derivação lógica independente do princípio de equivalência com base na suposição inicial de um universo holográfico. Dada esta situação, a gravidade não seria uma verdadeira força fundamental como se pensa atualmente, mas sim uma "propriedade emergente" relacionada à entropia. A teoria da gravidade entrópica de Verlinde aparentemente leva naturalmente à força correta observada da energia escura. Falhas anteriores em explicar sua incrivelmente pequena magnitude foram chamadas por pessoas como o cosmólogo Michael Turner (que é creditado por ter cunhado o termo "energia escura") como " maior constrangimento da história da física teórica ”. [46] Essas idéias estão longe de ser estabelecidas e ainda são muito controversas.


Soluções em Física Bariônica?

Quando o problema do núcleo da cúspide foi identificado pela primeira vez, o folclore convencional era que incluir a física bariônica apenas agravaria o problema ao contrair adiabaticamente a distribuição da densidade da matéria escura (6, 40). Navarro et al. (41) proposed a scenario, which seemed extreme at the time, for producing a cored dark matter distribution: Dissipative baryons draw in the dark matter orbits adiabatically by slowly deepening the gravitational potential and then release them suddenly when the supernova feedback of a vigorous starburst blows out a substantial fraction of the baryonic material, leaving the dark matter halo less concentrated than the one that would have formed in the absence of baryons. Since then, hydrodynamic simulations have greatly improved in numerical resolution and in the sophistication with which they model star formation and supernova feedback. With the combination of a high gas density threshold for star formation and efficient feedback, simulations successfully reproduce the observed stellar and cold gas fractions of field galaxies. The ejection of low angular momentum gas by feedback plays a critical role in suppressing the formation of stellar bulges in dwarf galaxies (42), another long-standing problem in early simulations of galaxy formation. The episodic gas outflows also produce rapid fluctuations of the gravitational potential, in contrast to the steady growth assumed in adiabatic contraction models.

Fig. 3, based on work by Governato et al. (43), illustrates the impact of this episodic feedback on the dark matter density profile. In Fig. 3 (Left), the black dotted-dashed curve shows the final halo profile of an N-body simulation run with gravity and dissipationless matter only. Other curves show the evolution of the dark matter density profile in a hydrodynamic simulation with star formation and feedback, from the same initial conditions. Over time, the central dark matter density drops and the cuspy profile is transformed to one with a nearly constant density core (Fig. 3, Left, black solid curve). Pontzen and Governato (44) present an analytical model that accurately describes this transformation (and its dependence on simulation assumptions) essentially, the rapid fluctuations in the central potential pump energy into the dark matter particle orbits, so that they no longer penetrate to the center of the halo. The simulations of Governato et al. (43) use smoothed particle hydrodynamics, and the same flattening of dark matter cusps is found in adaptive mesh refinement simulations that have similarly episodic supernova feedback (45).

Baryonic effects on CDM halo profiles in cosmological simulations. (Left) Black dotted-dashed curve shows the cuspy dark matter density profile resulting from a collisionless N-body simulation. Other curves show the evolution of the dark matter profile in a simulation from the same initial conditions, which include gas dynamics, star formation, and efficient feedback. By z = 0 (black solid curve), the perturbations from the fluctuating baryonic potential have flattened the inner profile to a nearly constant density core. (Right) Logarithmic slope of the dark matter profile α measured at 0.5 kpc, as a function of galaxy stellar mass. Crosses show results from multiple hydrodynamic simulations. Squares show measurements from rotation curves of galaxies observed by The HI Nearby Galaxy Survey (THINGS). The black curve shows the expectation for pure dark matter simulations, computed from NFW profiles with the appropriate concentration. For M ∗ > 10 7 M ⊙ , baryonic effects reduce the halo profile slopes to agree with observations. Both panels reprinted from ref. 43.

Fig. 3 (Right) compares the density profile slopes of simulated galaxies with observational estimates from 21-cm measurements of nearby galaxies (46) with predictions for an NFW dark matter halo. The reduced central density slopes agree well with observations for galaxies with a stellar mass of M ∗ > 10 7 M ⊙ . Strong gas outflows are observed in a wide variety of galaxies, including the likely progenitors of M ∗ ∼ 10 8 − 10 9 M ⊙ dwarfs observed at z ∼ 2 (47). However, for galaxies with M ∗ below ∼ 10 7 M ⊙ , analytical models suggest that with so few stars, there is not enough energy in supernovae alone to create dark matter cores of ∼ 1 kpc (48). More generally, Garrison-Kimmel et al. (49) used idealized, high-resolution simulations to model potential fluctuations of the type expected in episodic feedback models and concluded that the energy required for solving the too big to fail problem exceeds that available from supernovae in galaxies with stellar masses below ∼ 10 7 M ⊙ . The low-mass galaxies in Fig. 3 (from ref. 43) are consistent with this expectation, with density profile slopes that are negligibly affected by feedback at the 0.5-kpc scale. On the other hand, high-resolution simulations of luminous satellites in the halo of Milky Way-like hosts do show reduced central dark matter densities from a combination of early feedback effects with ram pressure stripping and tidal heating by the host halo and disk, processes that can extract energy from the host galaxy’s gravitational potential (50 ⇓ –52). Alternatively, Kuhlen et al. (53) argue that the regulation of star formation by molecular hydrogen cooling may make the stellar content of galaxies highly stochastic at a halo mass as high as 10 10 M ⊙ (also ref. 54), so that even the Milky Way’s most massive subhalos are not too big to fail. Ram pressure in the galactic halo could then remove the gas from the dark subhalos.

These arguments point to isolated, low-mass galaxies with M ∗ ∼ 10 6 − 10 7 M ⊙ as ideal laboratories for testing the predictions of CDM-based models. Dwarfs that are far separated from a giant galaxy must rely on their own (modest) supernova reservoirs for energy injection. Ferrero et al. (55) have studied a population of ∼ 10 6 − 10 7 M ⊙ field galaxies and argue that the central density problem persists even for relatively isolated dwarfs of this size. If this result holds up in further investigations, it will become a particularly serious challenge to CDM.


Title: A New Method to Measure the Post-reionization Ionizing Background from the Joint Distribution of Ly α and Ly β Forest Transmission

The amplitude of the ionizing background that pervades the intergalactic medium (IGM) at the end of the epoch of reionization provides a valuable constraint on the emissivity of the sources that reionized the universe. While measurements of the ionizing background at lower redshifts rely on a simulation-calibrated mapping between the photoionization rate and the mean transmission of the Lyα forest, at z ≳ 6 the IGM becomes increasingly opaque and transmission arises solely in narrow spikes separated by saturated Gunn–Peterson troughs. In this regime, the traditional approach of measuring the average transmission over large

50 Mpc/h regions is less sensitive and suboptimal. In addition, the five times smaller oscillator strength of the Lyβ transition implies that the Lyβ forest is considerably more transparent at z ≳ 6, even in the presence of contamination by foreground z

5 Lyα forest absorption. We present a novel statistical approach to analyze the joint distribution of transmission spikes in the cospatial z

6 Lyα and Lyβ forests. Our method relies on approximate Bayesian computation (ABC), which circumvents the necessity of computing the intractable likelihood function describing the highly correlated Lyα and Lyβ transmission. We apply ABC to mock data generated from amore » large-volume hydrodynamical simulation combined with a state-of-the-art model of ionizing background fluctuations in the post-reionization IGM and show that it is sensitive to higher IGM neutral hydrogen fractions than previous techniques. As a proof of concept, we apply this methodology to a real spectrum of a z = 6.54 quasar and measure the ionizing background from 5.4 ≤ z ≤ 6.4 along this sightline with


THE LAWS OF PHYSICS

Special relativity is based on the invariance of the laws of physics upon the choice of inertial reference frame and the empirical fact that the speed of light in vacuum is the same for all inertial observers.

Notice the prominence of the observer in these two postulates. Implicit in the laws are the way in which they are tested, with clocks and rulers to measure events. This is similar to the correspondence between observables and hermitian operators in quantum mechanics which is the only measurement that has a physical reality in any experiment.

The laws of physics are the same everywhere, therefore phenomena observed in the laboratory could also occur eleswhere in the galaxy. This is the power behind the symmetry in the laws of physics, it's laws are independent of location and of time. i.e. effects observed across the galaxy obey the same laws. It is rather a remarkable property of the universe that we can probe so far away and so far back in time and still be able to use table-top science as a useful tool in decoding raw astronomical observations.

Given that the interplay between experimental labs and observational astrophysics has proved so fruitful in the past why now ignore this growing knowledge base of empirical observations made in thousands of laboratories around the world ?

This heavy empirical emphasis on experimental verification of phenomena has often been overlooked cosmologist.

Consider in particular the laser It has revitalized the field of optics, revolutionized communications, medicine and industry, you probably have one of these little marvels of modern technology a few inches away in your CD-ROM drive or laser printer. You may have noticed the red laser light in supermarket bar-code readers or used as pen-sized pointers at seminars.

Considering it's prevalence in the field of physics why has it been overlooked by astronomers when it comes to explaining quasar emission lines? Perhaps it was because the field of lasers was too immature at the time Schmidt (1963) made his fateful assumption that the emission lines were redshhifted ? He may not have been aware of amplified spontaneous emission laser action in rapidly cooled recombining plasmas. This may have been excusable at the time, but not today where the field has matured and the phenomena of laser action in recombining plasmas is heavily investigated.

Some have claimed that even though laser action occurs on earth, it doesn't necessarily imply that it occurs in stars, however they fail to give any justification of this statement. This belief almost amounts to saying that 'the laws of physics are different in outer space', it is a 'privileged' environment not subject to laboratory verification. This attitude conflicts with the fundamental symmetry of the laws of physics with respect to translation in time and space. It seems to stem from an elitist attitude which unfortunately pervades fields in which are readily amenable to observational confirmation such as astronomy. i.e. 'It's just the way things are so accept it. ' seems to be the prime directive in cosmological quasar theories.


Astronomy 115 Final Study Guide

25,000 LY beyond the stars that make the pattern of the constellation Sagittarius. The Very Large Array (VLA) radio telescope system in New Mexico has resolved this strong radio sources into components as small as 3 AU across. The part known as "Sagittarius A*" lies at the center of the Galaxy and is believed to contain a supermassive black hole. The diameter of the event horizon of a black hole with 4 million solar masses would be

230 km/sec (toward Cygnus). The Sun's galactic orbit has a circumference of 2πr=2π (26,000 LY). To travel this distance at 230 km/sec requires

23% of the universe. Normal matter is only

8 minutes ago. We see M31 not as it is now, but as it was

2.5 million years ago. We see a galaxy with a redshift of 0.05 not as it is now, but as it was

28 billion LY apart, but are observed to have very similar properties. They must have formed close together and came to have similar properties. Then sudden drastic expansion (inflation) of space occurred briefly, separating them tremendously and then normal expansion resumes. The inflation are allowed space to balloon by a factor of

13.8 billion years ago, so light from stars, maybe

1million
In this case, the typical separation between civilizations would be

47,000 mph). This speed was achieved that the launch of the New Horizon probe to Pluto. It would take

80,000 years to get to Alpha Centauri at our best possible current speed of light. According to the special relativity theory, no object with mass can achieve the speed of light. There is no objection, however, to get closer and closer to the speed of light by expanding more and more energy. Assuming that we could somehow accomplish relativistic travel, we would find a very strange result. If travelers left Earth at 99.5% the speed of light to Alpha Centauri (round distance

8 LY), they would experience 8/10 year or

11 months. They would return on Earth

8 years after departure. This is because the moving clock runs slow at this speed by a factor of


Assista o vídeo: Astronomia: Uma Visão Geral II - Aula 6 - Parte 1 - Quasares (Novembro 2022).