Indices

3.4296520423299 (1322)
Posté par marvin 01/05/2009 @ 00:09

Tags : indices, lexique de la finance, finance, economie

Dernières actualités
DOW JONES : Ouverture à la hausse avant les statistiques - Zonebourse.com
Alors que les indices européens tentent de rebondir, le DOW JONES devrait également ouvrir sur une note positive, les contrats futures étant actuellement en hausse de 0.5%. La prudence devrait toutefois être de mise avant la publication des ventes de...
Europe : lourde chute de tous les indices. - BFM radio
(cerclefinance.com) - Les marchés européens ont terminé en lourd repli après avoir creusé leurs pertes en fin de séance, dans le sillage du repli des indices américains. Les dernières perspectives économiques, révisées à la baisse,...
EUROFINS intègre ce soir l'indice SBF 120 - TF1
(AOF) - Eurofins a annoncé son entrée dans l'indice SBF 120 conformément à la décision prise par le Conseil Scientifique des Indices de NYSE Euronext Paris qui s'est réuni le 28 mai dernier. Cette décision prendra effet aujourd'hui vendredi 19 juin...
Le Cac 40 clôture finalement dans le rouge, Bouygues en vedette - Les Échos
Le volume d'affaires totalise 2532 milliards d'euros sur les valeurs de l'indice. Sur le plan macroéconomique, les indices PMI montrent un coup de frein dans la reprise de l'activité dans les services en Europe, tandis que le ralentissement constaté...
Préouverture Paris : pas de reprise technique en vue - Boursier.com
Les indicateurs avancés des principaux indices perdent plus de 20 points vers 8h30, ce qui constitue le signal d'une poursuite d'une consolidation conséquente. La séance sera marquée par une nervosité accrue sur les marchés financiers et une série...
On attend la Fed en s'effritant - Challenges
Ces prévisions ont affecté particulièrement les cours du pétrole, qui sont retombées sous 67 dollars le baril et aussi les valeurs énergétiques, qui pèsent lourd dans les indices américains. CHANGES : palier à 1,39. L'euro ouvre à 1.3864 dollar mardi...
Wall Street finit pénalisée par le baril, le Nasdaq monte - Le Point
Mais les valeurs de l'énergie ont cédé du terrain et pesé sur les deux principaux indices de la place, le baril de pétrole brut repassant sous le seuil de 70 dollars face à l'ampleur des stocks d'essence aux Etats-Unis, qui éloigne les risques de...
Paris vacille de plus de 3% - Les Échos
Le Cac 40, à l'instar des indices vedettes américains, ont été affectés par le retour des craintes sur l'économie. Le rebond plus marqué que prévu de l'indice Ifo du climat des affaires en Allemagne a été contrebalancé par les commentaires de la Banque...
USA - forte remontée de l'indice Philly Fed en juin - TF1
(AOF) - L'indice américain de la Fed de Philadelphie est remonté à - 2,2 au mois de juin, à son niveau le plus haut depuis le mois de septembre, contre - 22,6 le mois précédent. Les analystes attendaient un chiffre de - 17 en juin....

Exposants et indices Unicode

La norme Unicode propose des exposants et des indices d'un certain nombre de caractères, y compris les chiffres arabes. Ces caractères permettent de représenter diverses formules mathématiques ou physiques sous forme de simple texte sans recourir à un langage de balisage comme HTML ou TEX.

En haut



Indices de Miller et indices de direction

Définition des indices de Miller d'un plan

Les indices de Miller sont une manière de désigner les plans dans un cristal. On utilise des indices similaires pour désigner les directions dans un cristal, les indices de direction.

Un cristal est un empilement ordonné d'atomes, d'ions ou de molécules, appelés ci-après « motifs ». La périodicité du motif est exprimée par un réseau constitue de nœudes qui représentent les sommets de la maille. Les plans et directions sont qualifiés de « nodaux » (plan nodal, direction nodale) ou mieux encore « réticulaire ». Une direction réticulaire est dite rangée.

En métallurgie, on travaille fréquemment avec des cristaux constitue d'un seul type d'atomes ; on parle donc de « plan atomique », de « direction atomique » ou de « rangée d'atomes », mais ce ne sont que des cas particuliers.

Les arêtes de la maille conventionnelle définissent les vecteurs de la base.

Ces vecteurs n'étant pas colinéaires, deux de ces vecteurs forment une base du plan.

Donc dans le cas d'un réseau cubique, le vecteur est perpendiculaire à la surface, c'en est un vecteur normal. Dans le cas général, il faut changer de base pour que le vecteur de coordonnées (h, k, l ) soit perpendiculaire au plan (cf. infra).

Certaines structures cristallines possèdent des symétrie particulières permettant la permutation des indices.

Pour un cristal suivant un réseau de Bravais cubique, les trois diagonales sont équivalentes, les trois faces du cube sont équivalentes, … ; on peut donc permuter à volonté les indices et prendre les opposés d'un ou de plusieurs indices, cela représentera immuablement une direction ayant les mêmes propriétés.

Cette notation permet d'appliquer des permutations circulaires d'indice pour définir des familles de plans.

En fait, si l'on considère le plan de base (001), ce plan a une symétrie d'ordre 3, c'est-à-dire qu'il est invariant par une rotation d'1/3 de tour (2π/3 rad, 120 °). Il contient donc trois directions identiques , et . Si l'on prend l'intersection du plan avec ces trois axes, l'inverse des abscisses des intersections donnent les indices h, k et i.

Dans les expériences de diffraction avec une longueur d'onde de l'ordre des paramètres de maille (diffraction de rayons X, diffraction de neutrons, diffraction d'électrons en microscopie électronique en transmission), la position des pics de diffraction peut se calculer en fonction des distances interréticulaires, par la loi de Bragg.

On peut ainsi relier chaque pic à un plan (hkl ) ; les indices de miller du plan sont les indices du pic.

Considérons l'espace réciproque, c'est-à-dire l'espace vectoriel formé par les vecteurs d'onde ; l'utilisation de cet espace permet de déterminer facilement les conditions de diffraction (voir aussi l'article Théorie de la diffraction sur un cristal).

On parle ainsi de tache, d'anneau ou de pic (hkl). Cette association s'appelle « l'indexation ».

En haut



Indices visuels dans la perception de la profondeur

Illustration de la perspective atmosphérique : les montagnes au loin paraissent estompées

La perception de la profondeur se base sur différents types d'indices visuels qu'il est possible de classer en trois catégories distinctes mais néanmoins complémentaires.

La première que l'on peut citer correspond aux indices monoculaires qui ne dépendent que de l'information issue d'un œil. Ces indices se composent de l'occlusion, de la perspective linéaire, de la hauteur relative, de la taille relative, de la perspective atmosphérique, et enfin du gradient de texture.

La seconde catégorie nécessite cette fois la présence des deux yeux, droit et gauche: il s'agit des indices binoculaires et plus particulièrement des disparités binoculaires. La présence d'un écart de 6 cm entre les yeux entraine une différence entre les images que les yeux reçoivent. C'est ce décalage que l'on appelle disparité et qui est à l'origine de la perception de la profondeur.

La troisième et dernière catégorie d'indices concernent les informations issues du système oculomoteur.

En haut



Indice (économie)

En économie, un indice est une statistique construite afin de mesurer certaines dimensions de l’activité économique, ceci de façon aussi objective que possible. Leurs évolutions ainsi que leurs corrélations avec d'autres grandeurs sont fréquemment analysées à l'aide de méthodes économétriques.

Les indices sont construits par l'agrégation d'indicateurs qui figurent dans un document appelé « tableau de bord ». La construction des indices découle d'un choix de conventions qui traduisent plus ou moins bien certaines priorités et valeurs éthiques et morales. Le « Tableau économique » de François Quesnay, l'un des premiers physiocrates qui a vécu au XVIIIe siècle, constitue l'un des premiers exemples d'un tel indice visant à mesurer la richesse d'un pays. Depuis les développements des comptes nationaux après la Seconde Guerre mondiale, le Produit intérieur brut (PIB) et le Produit national brut (PNB) sont les indices les plus courants.

Par ailleurs, il existe d'autres indices qui prennent en compte d'autres facteurs ignorés par le PNB et le PIB afin de mesurer le bien-être des habitants d'un pays ; en incluant par exemple des indices de santé, d’espérance de vie, de taux d'alphabétisation. Le Programme des Nations Unies pour le développement (PNUD) a ainsi créé l'Indice de développement humain (IDH) dans les années 1990.

Des tentatives pour prendre en compte d'autres dimensions telles la sécurité ou pour inclure la « soutenabilité écologique » de l'activité économique dans des indices ont aussi été menées plus récemment.

Parmi les nombreux indices économiques très souvent utilisés figurent en premier lieu le Produit intérieur brut (PIB), dont on surveille le taux de croissance afin de mesurer la croissance économique, et le Produit national brut qui permet de comparer les puissances économiques des différentes nations. Sont aussi souvent utilisés le taux d'inflation et des indices du niveau des revenus, de celui de la richesse, ou encore le salaire minimum, le salaire moyen et l'indice de Gini, lesquels fournissent divers aperçus de la répartition et de l'inégalité des revenus. De nombreux indices financiers sont enfin d'usage de plus en plus courant avec l'essor de la mondialisation financière.

La mesure de la production d'un pays se fait généralement par le Produit national brut (PNB) et le Produit intérieur brut (PIB). Le PIB est défini comme la valeur totale de la production interne de biens et services dans un pays donné au cours d'une année donnée par les agents résidents à l’intérieur du territoire national. C'est aussi la mesure du revenu provenant de la production dans un pays donné. Ces indices correspondent au développement des comptes nationaux mis en place après la Seconde Guerre mondiale. Ils sont limités du fait des conditions historiques de leur apparition, à la fois dans leur mesure et au niveau conceptuel.

Le Produit national brut (PNB) vise à évaluer la valeur des productions nationales réalisées aussi bien sur le territoire d'un pays qu'à l'étranger. Pour ce faire, il retranche du PIB les productions et services réalisés sur le territoire par les non-résidents (donnant lieu au versement de revenus hors du pays) et lui ajoute la valeur des produits et services effectués à l'étranger par des résidents (entreprises ou personnes qui ont donc reçu des paiements de revenus à l'étranger). En dehors de ces ajustements comptables correspondant à la balance des paiements, le PNB présente les mêmes défauts et qualités que le PIB.

Pour évaluer la richesse, on utilise souvent le Revenu national brut (RNB) qui fournit une mesure des revenus monétaires acquis durant l'année par les ressortissants d'un pays. Cet agrégat comptable est, au niveau d'un pays, peu différent de la production nationale brute du fait que le PNB est égal à la somme des revenus bruts des secteurs institutionnels, à savoir de la rémunération des salariés, des impôts sur la production et des importations moins les subventions, de l'excédent brut d’exploitation (assimilé au revenu des entreprises) et du solde de revenu avec l'extérieur.

Mais les données de patrimoine constituent de meilleures mesures de la richesse proprement dite. Il est difficile toutefois d'obtenir des évaluations comparables du patrimoine quand bien même on se limite seulement aux valeurs monétaires. Le problème devient encore plus ardu si on veut inclure des évaluations du patrimoine physique (immeubles, usines, outils de production, etc.), du patrimoine culturel (monuments, œuvres d'art présentes dans des musées, etc.), et plus encore du patrimoine social. Il serait nécessaire pour cela d'établir des conventions comptables et, si l'on veut effectuer des comparaisons internationales, de se mettre d'accord au niveau mondial sur leur utilisation. Or de telles opérations nécessitent des négociations et des accords internationaux très longs à réaliser.

La montée de la mondialisation financière depuis les dérégulations impulsées par les administrations Reagan et Thatcher s’est traduite depuis les années 1980 dans un développement considérable des besoins d’information sur les évolutions des marchés monétaires, financiers et boursiers. Depuis cette époque, les chiffres de la croissance et du PNB voisinent de plus en plus avec le spectacle des évolutions de l’euro, du dollar et du yen d’un coté, du Dow Jones, du NASDAQ, du Nikkei ou du CAC 40 de l’autre. En effet, les acteurs de la mondialisation que sont les cadres des entreprises financières ou non financières tournées vers l'exportation ont besoin de suivre quotidiennement ces variables de base de leurs arbitrages que sont les taux de change et les niveaux de valorisation boursière. Ainsi, avec la multiplication des expositions des firmes et des nations aux risques de change et aux risques financiers se développent des besoins d’indicateurs en tout genre, de « risque client » ou de « risque pays émergent », associés à chaque type de transactions. La Caisse des Dépôts et Consignations a créé ainsi des indices synthétiques de libéralisation financière et de crise bancaire informant sur les vulnérabilités associées aux opérations financières mondialisées dans les pays émergents.

Depuis la fin des années 1980, de multiples mouvements ont mis en cause les capacités du PNB à représenter toutes les dimensions du niveau de vie. Ainsi, au début des années 1990, certaines institutions internationales du système de l'Organisation des Nations unies ont fait un travail de pionnier en proposant de nouveaux indicateurs de développement. La collaboration d'économistes comme Amartya Sen, avec le Programme des Nations unies pour le développement (PNUD), a permis de proposer successivement toute une batterie de nouveaux indices multidimensionnels du développement qui incluent, en plus du PNB, des critères sociaux. Le plus connu est l'Indicateur de développement humain (IDH). Depuis, de nombreuses autres initiatives se sont multipliées.

Indice de la puissance économique d'une nation, le PNB mesure la richesse d'un pays. Mais il ne fournit qu'une mesure très approximative du bien-être des habitants qui y vivent. Il ne fournit en effet qu'une agrégation comptable des valeurs des différents biens et services marchands produits, quelles que soient les utilités de ces productions. Par exemple, le PNB ne prend pas en compte les externalités négatives de la production (les dégâts causés à l'environnement, les prélèvements sur le patrimoine, etc.). Il ne mesure pas non plus l'impact de toutes les activités non monétarisées et réalisées hors du champ économique proprement dit (travaux domestiques, éducation des enfants, activités artistiques, etc. – ensemble théorisés par l'opéraïsme italien sous le nom de « travail social », et qui concerne souvent les femmes), lesquelles augmentent le bien-être général.

Dans le cas des États-Unis, par exemple, le PNB agglomère indistinctement la production de biens qui ne contribuent pas directement au bien-être des habitants (aides au développement, etc.), avec celles des biens ou services produits et consommés par les américains.

L'IDH classe les pays sur une échelle de 0 à 1, en établissant la moyenne entre ces trois indices principaux, dits « standardisés » (parce qu'ils permettent une comparaison entre différents pays).

Au début des années 2000, dans la lignée du mouvement impulsé par le PNUD, de nombreuses institutions se sont mises à discuter des limites du PNB pour tenter de les dépasser. En novembre 2004 à Palerme, l'Organisation de coopération et de développement économiques (OCDE) a organisé un premier Forum mondial de l’OCDE sur ce thème. Fin juin 2007, l'OCDE a organisé un second colloque à Istanbul portant sur « les statistiques, les connaissances et les politiques ». Il a débouché sur une déclaration énergique exhortant les bureaux statistiques du monde entier à « ne plus se limiter aux indices économiques classiques comme le produit intérieur brut (PIB) ».

Face aux mises en cause multiformes de la mondialisation, il s’agissait d’abord, comme le déclarait le secrétaire général de l'OCDE Angel Gurria, de « mesurer en quoi le monde est devenu meilleur ». Afin de mettre en œuvre et généraliser cette déclaration signée par l’ONU et le PNUD, la Commission européenne a réuni les 19 et 20 novembre 2007 à Bruxelles un colloque international dénommé Beyond the GDP (Au-delà du PIB), durant laquelle son président, José Manuel Durão Barroso, défendait la mise en place de nouveaux indices pour mesurer les problèmes contemporains.

Ces réunions institutionnelles ont rassemblé une large part des nombreux indices alternatifs mis au point dans le monde entier afin d'évaluer le bien-être social et environnemental. Parmi ces indices synthétiques alternatifs, certains concernent les problèmes sociaux contemporains, d'autres les inégalités et la pauvreté, la sécurité économique et sociale ou le patrimoine écologique.

L’Indice de santé sociale (ISS) a été mis au point aux États-Unis par deux chercheurs, Marc et Marque-Luisa Miringoff. L’ISS est un indice social synthétique visant à compléter le PIB pour évaluer le progrès économique et social. C'est une sorte de résumé des grands problèmes sociaux présents dans le débat public aux États-Unis dans les années 1990. Il se traduit dans seize indicateurs sociaux dont il fait une sorte de moyenne. Sont ainsi regroupés dans cet indice des critères de santé, d'éducation, de chômage, de pauvreté et d'inégalités, d'accidents et de risques divers. L'ISS a acquis une grande réputation internationale en 1996, année de la parution d'un article majeur dans la revue économique Challenge montrant le décrochage des courbes de progression du PNB et de l'ISS aux Etats-Unis, le premier continuant à progresser alors que le second plongeait durablement après les années 1973-1975. Ce graphique montre ainsi en quoi les années Reagan et Bush père ont porté un rude coup à la santé sociale des États-Unis, laquelle se trouvait en 1996 à un niveau nettement inférieur à celui de 1959, en dépit d’une très belle courbe de croissance économique.

Le BIP 40 est un indicateur synthétique de l'évolution des inégalités en France dont le nom est une référence ironique à la fois au PIB (inversé) et au CAC 40. Cet indicateur a été mis au point et présenté à la presse en 2002 par réaction au fait que la santé économique et la santé boursière ont droit à des indices synthétiques fortement médiatisés, alors que ce n'est pas le cas pour ceux de la « santé sociale ». Cela même si l’INSEE publie de nombreuses études et indicateurs sur le sujet. L'équipe de militants syndicalistes, d'économistes et de statisticiens français qui ont agrégé des indicateurs pour former le BIP 40 est associée à un réseau associatif militant pour la réduction des inégalités, le Réseau d’alerte sur les inégalités (RAI).

De façon récente, des chercheurs de grandes institutions internationales (comme Guy Standing au BIT à Genève) et de pays développés (tels Lars Osberg et Andrew Sharpe au Canada ou Georges Menahem en France) ont mis au point des indicateurs visant à cerner le degré de protection économique des personnes contre les principaux risques de perte ou de diminution forte de leurs revenus, par exemple en matière de chômage, de maladie, de retraite, etc.

Grâce à leur indicateur ils sont en mesure de comparer les tendances d’évolution du bien-être économique dans six pays de l’OCDE  : États-Unis, Royaume-Uni, Canada, Australie, Norvège et Suède.

Des comparaisons sont ainsi données sur le site du laboratoire de ces deux chercheurs canadiens. Une application de l'IBEE au cas de la France a été proposée par Florence Jany-Catrice et Stephan Kampelmann en Juillet 2007.

Dans les travaux de Guy Standing effectués dans le cadre du Bureau international du travail (BIT), la vision est centrée sur le travail et vise à cerner la sécurité économique dans sept domaines. Dans un deuxième temps, un indice synthétique permet d'effectuer une moyenne de ces sept domaines : les revenus (y compris les prestations sociales), la participation à l’activité économique, la sécurité d’emploi, la sécurité du travail (contre les risques d'accidents ou de maladies professionnels), la sécurité des compétences et qualifications, la sécurité de carrière, et enfin celle de la représentation syndicale et d’expression des salariés.

Une série de grandes enquêtes ont ainsi été menées par les missions locales du BIT dans une vingtaine de pays. Les pays scandinaves sont à nouveau aux premières places pour cet indicateur.

En France, Georges Menahem a mis au point en 2005 un indicateur baptisé taux de sécurité économique (TSE). Selon ses dernières publications, la sécurité économique peut être décomposée entre une partie « marchandisée » dépendante des relations salariales et de la vente des produits, et une partie "démarchandisée" relative aux prestations et aides auxquelles les individus ont droit indépendamment de leurs relations actuelles avec le marché (comme la retraite, les allocations familiales, de logement, de chômage ou le RMI). Ses estimations sur une trentaine de pays montrent que le taux de sécurité démarchandisée est un bon indicateur de l'efficacité du système de protection sociale : il est maximum en Suède et dans les pays Nordiques, il est encore important dans les pays continentaux tels l'Autriche, l'Allemagne ou la France, mais il est faible au Royaume-Uni et dans les pays Européens du Sud comme l'Italie, la Grèce ou l'Espagne et très limité dans les pays d'Europe Centrale et Orientale tels la Lettonie ou la Lithuanie. Quant aux États-Unis, leur taux de sécurité démarchandisée est négatif, ce qui témoigne du mauvais état des protections sociales dans ce pays présenté comme un modèle de l'économie de marché. Ce taux n'est que faiblement positif dans deux autres exemples du modèle « libéral » selon le sociologue danois Gosta Esping-Andersen : en Australie et au Canada, à un niveau à peine plus élevé pour ce dernier car les programmes sociaux y sont plus étendus.

L'Empreinte écologique est un indicateur visant à mesurer les pressions économiques sur l'environnement. L’empreinte écologique d’une population est la surface de la planète, exprimée en hectares, dont cette population dépend compte tenu de ce qu’elle consomme. Les principales surfaces concernées sont dédiées à l’agriculture, à la sylviculture, à la pêche, aux terrains construits et aux forêts capables de recycler les émissions de CO2. Il s’agit d’un indicateur synthétique, qui « convertit » en surfaces utiles de multiples pressions humaines sur l’environnement, mais pas toutes.

On peut calculer cette empreinte pour une population allant d’un seul individu à celle de la planète, et par grands « postes » de la consommation. Par exemple, la consommation alimentaire annuelle moyenne d’un Français exige 1,6 hectare dans le monde ; son empreinte totale (alimentation, logement, transports, autres biens et services) est de 5,3 hectares. Pour un Américain, on obtient 9,7 hectares : le record du monde.

Or l’empreinte par personne « supportable » par la planète aujourd’hui, compte tenu des rythmes naturels de régénération des ressources était de 2,9 hectares en 1970, et elle ne cesse de diminuer sous l’effet de la progression de la population, de la régression des terres arables, des forêts, des ressources des zones de pêche, etc. Elle est passée à 2 hectares en 1990 et elle n’est plus que de 1,8 hectares en 2001. Si tous les habitants de la planète avaient le mode de vie des Américains, il faudrait 5,3 planètes pour y faire face. Si tous avaient le niveau de vie moyen des Français, il en faudrait près de trois.

De nombreux rapports ont déjà été produits, dont ceux particulièrement documentés et fiables du Global environmental conservation organization (soit le World Wide Fund for Natureou WWF). Mais leurs conséquences sont limitées compte tenu de la faible visibilité dans la sphère publique de ce problème, ses conséquences négatives sur la vie quotidienne ne touchant pas encore vraiment les acteurs économiques, politiques et médiatiques dominants et les nations les plus favorisées même si leur empreinte écologique est pourtant de loin la plus importante. De ce fait, elles peuvent croire encore dans les bénéfices d’une croissance matérielle soutenue et indéfinie, les indicateurs des limites de notre planète matériellement finie étant difficiles à percevoir.

L'empreinte écologique est un chiffre abstrait et synthétique qui ne traduit qu'une faible part des conséquences du dérèglement du climat et des dégradations des écosystèmes. La comparaison de l'empreinte de l'Afrique et de l'Europe montre certes que les pays les plus pauvres ont encore, pour quelque temps, une empreinte écologique par personne très supportable par la planète, ce qui permet aux pays favorisés d'utiliser bien plus que leur surface. Ainsi, les dommages restent au faible niveau des premiers signes que nous observons actuellement. Selon le WWF, ce résultat traduit une dette écologique des pays riches par rapport aux pays pauvres : les premiers « empruntant » aux seconds d’énormes surfaces de ressources naturelles, terres arables, forêts, aux pays du Sud. Tout se passe comme si ils y exportaient leur pollution, au moins celle qui ne connait pas de frontière, à commencer par celle des gaz à effet de serre.

L'importance et la diversité de ces catastrophes à venir suggère qu'il faudrait compléter l'empreinte écologique par une batterie d'indicateurs d'inégalités économiques et sociales afin d'évaluer en quoi certaines populations plus pauvres sont davantage touchées par ce que les populations riches nomment les « aléas » climatiques. La moitié de la population mondiale vit ainsi dans des zones côtières qui risquent d'être submergées si le niveau des mers s’élevait d’un mètre, évolution possible pour le siècle à venir selon le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) si les tendances actuelles persistent.

En haut



Dioptre

Non stigmatisme du dioptre plan : il n'y a pas d'image

En optique, un dioptre est une surface séparant deux milieux transparents d'indices de réfraction différents. Si la lumière se propage en ligne droite dans un milieu homogène et isotrope, elle est déviée lors du passage d'un dioptre : il y a réfraction.

De façon générale, il y a à la fois réfraction et réflexion : une partie de la lumière est réfléchie à la surface du dioptre et l'autre partie est réfractée lors de son passage dans l'autre milieu.

Le changement de direction au niveau du dioptre est décrit par les lois de Snell-Descartes qui fondent l'optique géométrique. Ces lois peuvent se représenter graphiquement en les appliquant à un rayon unique - dit incident - interceptant le dioptre en un point dit point d'incidence. Pour comprendre l'effet d'un dioptre sur la lumière, il faut considérer un nombre minimal de rayons de façon à représenter le faisceau de lumière.

Une des conséquences des lois de Snell-Descartes est que le dioptre plan est un système non-stigmatique. L'illustration ci-dessus montre que la lumière issue d'un point placé dans un aquarium, par exemple, donne des rayons réfractés dans l'air qui ont des directions sans point commun.

Pourtant, lorsqu'on regarde un poisson, on le voit bien ! C'est donc que l'œil du poisson, par exemple, constitue un objet lumineux qui forme une image sur la rétine de l'œil de l'observateur. Ceci n'est possible que parce que le faisceau de lumière est suffisamment étroit pour que la tache sur la rétine apparaisse comme un point. On est bien alors dans un cas de stigmatisme approché.

C'est ce phénomène qui permet d'expliquer l'expérience du « bâton brisé » que l'on montre en général pour illustrer la réfraction.

On voit que si n1 > n2 (par exemple passage de l'eau vers l'air), alors pour des valeurs de sin(θ1) proches de 1, c'est-à-dire pour des incidences rasantes (rayon incident proche de la surface), on obtient par cette formule une valeur de sin(θ2) supérieure à 1 ! Ceci est évidemment impossible, cela correspond à des situations où il n'y a pas de réfraction mais uniquement de la réflexion ; on parle de réflexion totale.

Cette propriété est mise à profit dans certains systèmes réflecteurs (prisme à réflexion totale) et les fibres optiques.

L'application des lois de Snell-Descartes permet également de traiter le cas des dioptres non plans. Il suffit de considérer localement la normale au dioptre point d'incidence de chaque rayon contribuant au faisceau.

De nouveau, par construction géométrique, on constate que le dioptre sphérique n'est pas stigmatique, sauf évidemment pour son centre, puisque chaque rayon arrivant perpendiculairement au dioptre n'est pas dévié. L'image du centre est alors le centre lui-même. (En fait, il est également stigmatique pour deux autres points particuliers de l'axe optique, appelés points de Weierstrass).

Lorsqu'une faible partie du dioptre est utilisée ou, autre façon de dire, lorsque le rayon de courbure est très grand devant les dimensions liées à l'objet (taille, distance), on peut se placer dans les conditions dites de Gauss : on ne considère alors que les rayons qui passent près de l'axe et qui sont peu inclinés. La conséquence mathématique est la possibilité d'assimiler les sinus à la valeur des angles (en radian) et la conséquence physique est que l'on est alors dans les conditions d'un stigmatisme approché: dès lors, à un point objet, on peut associer un point image. Ceci est particulièremet important pour la fabrication des lentilles (voir ci-après).

En particulier, on peut définir un foyer, image d'un objet à l'infini, c'est-à-dire autrement, point de convergence (ou de divergence) d'un faisceau incident parallèle à lui-même et parallèle à l'axe. Et plus généralement, on peut écrire une relation de conjugaison entre un point A de l'axe et son image A' donnée par le dioptre.

La relation de conjugaison ci-dessous permet de préciser les positions des foyers. Suivant la courbure (concave/convexe) et suivant le rapport des indices (n'> n ou n' < n) les foyers sont réels ou virtuels.

Les applications sont, de façon générale, les instruments d'optique. Ceux-ci sont constitués d'objets réfractants qui ont nécessairement au moins deux faces. Schématiquement, on peut considérer l'association de deux dioptres plans non parallèles : on a alors un prisme, dont les propriétés de réflexion totale ou de dispersion en font un objet largement utilisé. Et considérer par ailleurs l'association de deux dioptres dont l'un (au moins) n'est pas plan : les lentilles, pour lesquelles on retrouve naturellement les conditions de Gauss pour pouvoir associer une image à un objet.

En haut



Observation et détection des trous noirs

Effet de lentille gravitationnelle

La détection des trous noirs repose sur des indices astronomiques. Au cours des deux dernières décennies, les astronomes et physiciens du monde entier ont cherché à déduire leur présence, à défaut de prouver leur existence par observation directe. Quatre types de procédés ont été utilisés, soit quatre indices : à chaque fois, il s'agit de détecter l'influence du trou noir très massif et dense sur son environnement proche, à l'échelle astronomique.

Les observations concernent deux types de trous noirs : ceux ayant la masse d'une étoile typique (4 à 15 masses solaires), et ceux ayant la masse d'une galaxie typique (les trous noirs supermassifs). Les indices ne sont pas non plus des observations directes au sens strict du terme, mais découlent du comportement des étoiles et d'autres objets existants à proximité du trou noir soupçonné. Il n'a pas été observé de trous noirs du troisième type, les trous noirs primordiaux.

Le trou noir est souvent entouré de matière diverse, à savoir en majorité des corps stellaires plus ou moins importants, de l'étoile aux nuages gazeux, parfois des débris d'astéroïdes... Dans le cas d'un trou noir stellaire en rotation (dit de Kerr), la matière peut provenir d'une étoile compagne qui, attirée par la gravité du trou noir, produit autour de celui-ci un disque d'accrétion (ce qui provoque un très important rayonnement X). La matière qui tombe vers le trou noir décrit alors un mouvement en spirale accéléré, elle s'enroule autour de la singularité qui l'attire. Si la matière n'est pas engloutie, parce que trop éloignée ou animé d'une vitesse suffisante pour échapper à l'attraction du trou noir, elle est tout au moins déviée. C'est ce mouvement elliptique bien particulier qui peut être détecté, le plus simple étant alors de considérer soit la lumière visible qui parvient jusqu'à nous, soit les rayonnements X ou infra-rouge.

Les scientifiques expliquent aujourd'hui grâce au trou noir (parfois grâce aux quasars) l'effet de lentille gravitationnelle. Les rayons lumineux, qui se propagent en ligne droite à travers l'espace-temps, s'incurvent de façon notable en passant à proximité d'un trou noir. La lumière est donc déviée en direction de la source gravitationnelle, et elle le fait de manière détectable par nos télescopes. Par exemple, si une galaxie semble anormalement grande compte-tenu de ses caractéristiques (distance, taille...), on peut supposer qu'il existe un trou noir entre elle et la Terre, qui agit comme une lentille en déviant les rayons lumineux (comme le ferait une lentille de verre classique). Aux distances astronomiques considérées, la déviation donne naissance à une illusion de grossissement caractéristique, parfois à un dédoublement de l'image perçue.

La détection du disque d'accrétion, constitué de résidus et de matière stellaires en grande partie, provient d'une perte d'énergie. En effet, les différents constituants du disque entourant le trou noir sont inévitablement amenés à s'entrechoquer dans leur course vers l'horizon. Lors de ces collisions (qui seraient maximales vers 200-250 km du rayon de Schwarzschild), il y a transfert d'énergie : les particules diverses perdent de l'énergie au profit du milieu, tout en décrivant une trajectoire qui devient de plus en plus spiralée.

Cette perte d'énergie gravitationnelle de l'ensemble du disque d'accrétion est convertie pour une très large part en transfert thermique. Ce phénomène est amplifié par la compression de plus en plus forte qui s'exerce sur la matière, à mesure qu'elle se rapproche du centre du trou noir (et par certains effets de marées complexes). Tout ceci provoque un rayonnement X intense, détectable par les télescopes et satellites modernes (le plus connu est le télescope américain Chandra).

On pense avoir trouvé des trous noirs de 10 à 100 milliards masses solaires au sein de noyaux galactiques actifs (AGN), en utilisant la radioastronomie et l'astronomie rayons X. L'idée selon laquelle il existerait de tels trous noirs supermassifs au centre de la plupart des galaxies, y compris au centre de notre propre Voie lactée, est régulièrement confortée par des observations et des mesures expérimentales.Ainsi, Sagittarius A est maintenant considéré comme le candidat le plus plausible pour l'emplacement d'un trou noir supermassif au centre de la Voie lactée.

Dans le cas des trous noirs de Kerr en rotation, la matière avalée tournant en leurs centres permettrait de développer un champ magnétique élevé. Des particules de très haute énergie pourraient être émises près du trou noir, par la matière en train de s'y effondrer, ceci provoquant des jets émis le long de l'axe de rotation du trou noir, dans la direction des pôles Nord et Sud. Dans le cas des trous noirs supermassifs, ayant une masse de plusieurs milliards de fois celle du Soleil, d'immense jets de plasma existeraient. Et en effet, des observations sont venues confirmer ces hypothèses.

Deux cas de système binaire sont étudiés : celui où deux étoiles de masses équivalentes se rapprochent, et celui où une étoile est attirée par un trou noir de même masse. Il faut donc pouvoir différencier ces deux cas de figures. Dans le second, l'étoile peut se rapprocher bien plus près du centre du trou noir qu'elle ne le ferait avec l'étoile, car le trou noir est souvent bien plus petit. En effet, le rayon de Schwarzschild est généralement faible, de l'ordre de quelques mètres à plusieurs dizaines de kilomètres. À cette distance, les forces gravitationnelles sont extrêmement importantes.

L'activité gravitationnelle émet des ondes gravitationnelles, constituées de gravitons qui traversent l'espace-temps avec les mêmes propriétés que les ondes. Les gravitons sont beaucoup moins énergétiques que la plupart des autres particules; leur détection est normalement impossible, sauf si ces gravitons sont présents dans des énergies inhabituellement hautes. Pour étudier cette éventualité, John Weber utilisa en 1960 de gros cylindres d'Aluminium de plusieurs tonnes, qu'il disposa à plusieurs centaines de kilomètres les uns des autres, faisant office de détecteurs : lors du passage d'ondes gravitationnelles, les cylindres devraient être très légèrement comprimés, puis distendus. C'est ce qui se passa effectivement, et l'hypothèse selon laquelle un trou noir se situerait au centre de notre Galaxie fut alors formulée. En Italie, près de Pise, le détecteur Virgo a été mis au point pour écouter le « chant gravitationnel » des trous noirs. Constitués de deux bras de 3km chacun, disposés perpendiculairement, il devrait lui aussi vibrer au rythme du passage des ondes gravitationnelles.

Évidemment, cet angle d'attaque est limité : les mesures doivent être très précises à des échelles très faibles, et le phénomène est ponctuel (bien que certainement régulier). Trois sujets d'étude s'offrent donc aux astronomes : étudier une nouvelle fois le rayonnement X, chercher à déterminer la masse du corps invisible mais influant sur l'étoile (suspecté d'être un trou noir), ou étudier le spectre de l'étoile du système binaire. Dans l'absolu, les trois voies de recherche sont liées. En effet, on peut déterminer la masse totale d'un système binaire à condition de connaître sa distance à la Terre, et sa période de révolution ; mais l'étude d'un spectre donne des informations sur la masse de la source. Sachant que la masse d'une étoile est aujourd'hui déterminable, la masse de l'éventuel trou noir est simplement déduite par rapport à la masse de l'ensemble du système binaire (qui doit être estimée le plus précisément possible).

Une première voie d'observation est donc l'étude du spectre de l'étoile. En fait, c'est le spectre qui va permettre d'identifier le système binaire et non l'inverse. Lorsqu'on regarde la zone des infrarouges de l'étoile, on s'aperçoit qu'il varie périodiquement au cours du temps. L'étoile tourne autour du trou noir de manière périodique et son spectre va avoir, d'après un phénomène nommé décalage vers le rouge, la particularité d'osciller du bleu au rouge. Il s'agit en fait de l'effet Doppler appliqué aux ondes lumineuses : concernant un spectre classique (phase a)), lorsque la source de rayonnement s'approche de nous, la fréquence de rayonnement augmente (phase b)), et inversement (phase c)), ce qui modifie l'allure du spectre vis-à-vis des infra-rouges.

Pourtant, ce seul critère ne suffit pas, car il peut très bien se produire dans le cas d'un système binaire à deux étoiles massives. Le compagnon invisible n'est donc pas forcément un trou noir, mais peut-être une naine blanche, une étoile à neutrons ou encore une étoile trop peu lumineuse pour pouvoir être vue (ce qui semble beaucoup moins probable, compte tenu des impératifs de taille et de masse)...

Comment savoir si ces rayons X proviennent d'un trou noir ? Il faut regarder de quelle manière sont émis ces rayons. Si le disque d'accrétion est instable, du fait de sa haute température, on peut avoir des sursauts de rayons X (c'est-à-dire qu'une quantité de matière chaude se sera formée de façon abrupte) : le compagnon sera soit un trou noir, soit une vieille étoile à neutron. Ensuite, pour les différencier, il faut regarder si le disque d'accrétion émet jusqu'au centre du compagnon invisible. Si c'est le cas, alors ce sera une étoile à neutron âgée ; dans le cas contraire, ce sera un trou noir. Toutefois, pour cette méthode, il faut pouvoir observer précisément tout le système binaire, ce qui implique qu'il soit assez proche de la Terre. Cela nous renvoie aux limites optiques des télescopes et des satellites actuels.

Les trous noirs sont également les principaux candidats pour les objets astronomiques qui émettent de très grandes quantités d'énergie, tels que les quasars et les sursauts gamma.

En haut



Indice de menace de temps violent

L’indice de menace de temps violent (SWEAT), est l’un des indices de stabilité de l'air qui fournit une probabilité de déclenchement d'orages ainsi que de génération de phénomènes violents associés (grêle, rafale descendante, tornade, pluie torrentielle sous orage).

Contrairement aux indices comme l’indice de soulèvement et de Showalter, cet indice ne tient pas uniquement compte des valeurs de la température et du point de rosée pour calculer le potentiel des orages, il utilise également une mesure des forces dynamiques en jeu en utilisant la vitesse des vents à 850 et à 500 hPa et un terme qui représente leur cisaillement directionnel entre ces deux niveaux. Il tient également compte de l'indice TT et d'un terme représentant l'humidité à bas niveau. Ces données, déduites d'un radiosondage, sont utilisées dans la prévision des orages violents.

Robert C. Miller, un météorologue, a publié un article en 1972 à propos du développement orageux où il proposa l’indice SWEAT (Severe Weather Threat). Miller est particulièrement connu, avec son collègue E. J. Fawbush, pour la première prévision de tornade en temps réel couronnée de succès en 1948, alors qu'il travaillait pour la US Air Force. Ses travaux se sont ensuite poursuivi dans ce domaine en utilisant les données sur les orages se développant dans les Grandes Plaines américaines.

L'indice SWEAT évalue la possibilité de temps violent en combinant les effets de l'humidité à bas niveau (Td à 850), l'instabilité convective (indice TT), les courant-jets maxima à 850 et 500 hpa et l'advection chaude par la différence de direction des vents entre 850 et 500 hpa.

De ce fait, l'indice SWEAT permet de différencier la convection « ordinaire » et celle qualifiée de violente, grâce à l'incorporation de données thermodynamiques (Td à 850 et indice TT) et cinétiques (caractèristiques des vents de bas et moyens niveaux). Étant donné que l'indice SWEAT peut varier de façon significative en 12 heures, cet indice est le plus efficace lorsque ses valeurs demeurent élevées au début de la période considérée.

L'indice SWEAT n'est certes pas influencé aussi fortement que l’indice Total-Total ou l’indice de George (K) par la présence de différentes masses d'air, cependant, comme il a été créé avec les conditions prévalant dans les plaines américaines, il fournira des résultats moins fiables dans l'air plus froid. Mais dans les bonnes conditions, les termes de la vitesse des vents peuvent à eux seuls indiquer un risque de temps violent et ces conditions peuvent très bien se produire dans une masse d'air CA (Continentale arctique).

Les prévisionnistes sont d'un avis mitigé sur l'indice SWEAT. En présence des conditions climatiques pour lesquelles il a été conçu, l'indice SWEAT donne une bonne indication au météorologue. Par contre, il faut savoir que des valeurs SWEAT élevées n'impliquent pas nécessairement un temps violent ; comme tous les indices de stabilité, il s'agit d'un indicateur qui incite à un examen plus approfondi de la zone ou du radiosondage.

Une étude canadienne a montré que l'indice SWEAT pouvait être un prédicteur important, mais la valeur moyenne pour les orages violents dans les Prairies canadiennes n'était que de 267. Cette valeur se retrouvant dans la catégorie « aucun orage violent » du tableau ci-dessus, ceci démontre qu'étant donné que Miller n'a pas classé ses cas en fonction de la situation synoptique, les conclusions auxquelles il est arrivé impliquent que l'indice SWEAT ne doit être utilisé que dans les situations pour lesquelles il a été conçu.

En haut



Source : Wikipedia