A magnitude é uma medida do brilho de um objeto celeste. Números mais altos de magnitudes representam objetos menos brilhantes, números mais baixos de magnitudes representam objetos mais brilhantes e números negativos de magnitude indicam brilho extremo.
O primeiro sistema de medida do brilho de objetos celestes foi desenvolvido pelo astrônomo grego Hiparco, no século II a.C. Ele verificou que as estrelas poderiam ser classificadas de acordo com o brilho que apresentavam quando observadas a olho nu. Sem meios de medir sua radiação, ele escolheu visualmente as mais brilhantes e as definiu como de grandeza 1. As um pouco mais fracas, chamou de grandeza 2, e assim por diante até chegar às estrelas que mal podia ver, que classificou como grandeza 6.
Naquela época a intensidade visual era associada ao tamanho dos objetos, desta forma utilizava-se a palavra grandeza. Atualmente, a intensidade visual está relacionada à distância de um objeto, não tendo relação com seu tamanho e brilho intrínseco e o termo adotado passou a ser magnitude. O brilho que um objetos celeste aparenta ter, quando visto a olho nu a partir da Terra, determina sua magnitude aparente ou visual. Já a medida real ou do seu brilho intrínseco é definida pela magnitude absoluta.
O sistema quantitativo atual foi desenvolvido em 1856 pelo astrônomo inglês Norman Robert Pogson, que procurou criar um sistema que concordasse tanto quanto possível com as antigas medições qualitativas feitas pelos gregos. Com o auxílio de um fotômetro, Pogson elaborou um modelo matemático para dar conta do sistema de magnitudes.
A expressão que dá a magnitude visual ou aparente de uma estrela em termos de sua luminosidade é conhecida como fórmula de Pogson e é escrita como:
m = -2,5 log F + C
Onde m é a magnitude aparente ou visual da estrela, F é a luminosidade da estrela recebida por um detector colocado sobre a superfície da Terra, e C é a constante usada para definir o zero da escala de magnitude, baseada na magnitude aparente da estrela Vega.
A equação de Pogson mostra que a escala de magnitudes é uma relação logarítmica. A regra utilizada por esta escala é tal que uma diminuição sucessiva de uma unidade em magnitude representa um aumento no brilho aparente por um fator de 2,512. Deste modo uma diferença de 5 magnitudes corresponde a um aumento de 100 vezes no brilho do objeto celeste. Trata-se da medição feita por Pogson através do fotômetro, onde observou-se que a diferença de brilho entre uma estrela de grandeza 1 e uma de grandeza 6 era de aproximadamente 100 vezes.
A magnitude aparente não nos dá uma ideia do brilho verdadeiro de um objeto, que às vezes parece fraco devido à grande distância que se encontra, enquanto outros nos parecem muito brilhantes porque estão muito mais perto. A magnitude absoluta é o brilho que os objetos apresentariam, se estivessem a uma mesma distância, padronizada em 10 parsecs (1 parsec = 30,857x10^12 km). Deste modo, vemos que a magnitude absoluta mede quão brilhante um objeto apareceria para nós se ele fosse tirado de sua posição verdadeira e colocado a uma distância padrão de 10 parsecs, ou aproximadamente 32,6 anos-luz.
Se a distância real de uma estrela é d parsecs, sua magnitude absoluta M e sua magnitude aparente m estão relacionadas pela equação:
M = m - 5 log (d/10)
Abaixo uma tabela com as estrelas mais brilhantes de acordo com a magnitude aparente e respectiva magnitude absoluta e distância à Terra:
A visão humana, sem instrumentos, é capaz de enxergar objetos até a sexta magnitude, com o auxílio de um binóculo ou de um telescópio o alcance torna-se maior, por exemplo o telescópio Hubble detecta objetos até a trigésima magnitude aparente.
O primeiro sistema de medida do brilho de objetos celestes foi desenvolvido pelo astrônomo grego Hiparco, no século II a.C. Ele verificou que as estrelas poderiam ser classificadas de acordo com o brilho que apresentavam quando observadas a olho nu. Sem meios de medir sua radiação, ele escolheu visualmente as mais brilhantes e as definiu como de grandeza 1. As um pouco mais fracas, chamou de grandeza 2, e assim por diante até chegar às estrelas que mal podia ver, que classificou como grandeza 6.
Naquela época a intensidade visual era associada ao tamanho dos objetos, desta forma utilizava-se a palavra grandeza. Atualmente, a intensidade visual está relacionada à distância de um objeto, não tendo relação com seu tamanho e brilho intrínseco e o termo adotado passou a ser magnitude. O brilho que um objetos celeste aparenta ter, quando visto a olho nu a partir da Terra, determina sua magnitude aparente ou visual. Já a medida real ou do seu brilho intrínseco é definida pela magnitude absoluta.
O sistema quantitativo atual foi desenvolvido em 1856 pelo astrônomo inglês Norman Robert Pogson, que procurou criar um sistema que concordasse tanto quanto possível com as antigas medições qualitativas feitas pelos gregos. Com o auxílio de um fotômetro, Pogson elaborou um modelo matemático para dar conta do sistema de magnitudes.
A expressão que dá a magnitude visual ou aparente de uma estrela em termos de sua luminosidade é conhecida como fórmula de Pogson e é escrita como:
m = -2,5 log F + C
Onde m é a magnitude aparente ou visual da estrela, F é a luminosidade da estrela recebida por um detector colocado sobre a superfície da Terra, e C é a constante usada para definir o zero da escala de magnitude, baseada na magnitude aparente da estrela Vega.
A equação de Pogson mostra que a escala de magnitudes é uma relação logarítmica. A regra utilizada por esta escala é tal que uma diminuição sucessiva de uma unidade em magnitude representa um aumento no brilho aparente por um fator de 2,512. Deste modo uma diferença de 5 magnitudes corresponde a um aumento de 100 vezes no brilho do objeto celeste. Trata-se da medição feita por Pogson através do fotômetro, onde observou-se que a diferença de brilho entre uma estrela de grandeza 1 e uma de grandeza 6 era de aproximadamente 100 vezes.
A magnitude aparente não nos dá uma ideia do brilho verdadeiro de um objeto, que às vezes parece fraco devido à grande distância que se encontra, enquanto outros nos parecem muito brilhantes porque estão muito mais perto. A magnitude absoluta é o brilho que os objetos apresentariam, se estivessem a uma mesma distância, padronizada em 10 parsecs (1 parsec = 30,857x10^12 km). Deste modo, vemos que a magnitude absoluta mede quão brilhante um objeto apareceria para nós se ele fosse tirado de sua posição verdadeira e colocado a uma distância padrão de 10 parsecs, ou aproximadamente 32,6 anos-luz.
Se a distância real de uma estrela é d parsecs, sua magnitude absoluta M e sua magnitude aparente m estão relacionadas pela equação:
M = m - 5 log (d/10)
Abaixo uma tabela com as estrelas mais brilhantes de acordo com a magnitude aparente e respectiva magnitude absoluta e distância à Terra:
Estrela magnitude magnitude distância à Terra aparente absoluta em parsecs Sol -26,74 4,83 0,00000485 Sirius -1,46 1,43 2,64 Canopus -0,72 -5,63 96 Arcturus -0,04 -0,29 11,24 Vega 0,03 0,58 7,76 Rigel 0,18 -6,72 240 Procyon 0,34 2,63 3,49 Betelgeuse 0,42 -6,05 197
A visão humana, sem instrumentos, é capaz de enxergar objetos até a sexta magnitude, com o auxílio de um binóculo ou de um telescópio o alcance torna-se maior, por exemplo o telescópio Hubble detecta objetos até a trigésima magnitude aparente.
Nenhum comentário:
Postar um comentário