Wikipédia:Sélection/Sciences

Toxoplasmose

Tachyzoïtes de Toxoplasma gondii

La toxoplasmose est une maladie parasitaire dont l'agent est le protozoaire Toxoplasma gondii. Le parasite contamine le plus souvent des animaux à sang chaud, y compris l'être humain, mais il est l'hôte définitif des félidés (dont le chat fait partie).

La maladie est présente partout dans le monde ; sa prévalence chez l’être humain est variable. Pour les adultes présentant une séropositivité (et donc une immunité potentiellement affaiblie), la prévalence est faible en Asie ou en Amérique, elle est inférieure à 30 % dans les pays scandinaves et dans le Royaume-Uni, elle va de 20 à 50 % en Europe du sud ainsi que dans les régions humides de l’Afrique et elle va de 50 à 70 % en Europe de l’Ouest continentale (80 % en France).

Chez le sujet immunocompétent, l'infection est bénigne et reste inapparente, ou prend l'aspect d'un simple syndrome grippal qui guérit spontanément en quelques jours. La toxoplasmose est grave en revanche chez les sujets immunodéprimés (en particulier ceux infectés par le VIH) et lorsqu'elle est transmise de la mère au fœtus : une enquête menée en 1995 en France évaluait la séroprévalence à 54 % parmi les femmes enceintes. Le risque et la gravité que le fœtus soit atteint dépend du moment de la grossesse. Le risque est inférieur à 2 % avant deux mois de grossesse mais dans ce cas l’atteinte fœtale est grave. Il atteint 70 % en fin de grossesse et le fœtus fera essentiellement des lésions oculaires.

La toxoplasmose congénitale expose le fœtus à un risque malformatif qui justifie en France un dépistage obligatoire de la toxoplasmose chez la femme au cours de l'examen prénuptial et, chez les femmes enceintes non immunisées, par une sérologie réalisée tous les mois jusqu'à l'accouchement.

Lire la suite

Trou noir

Trou noir de Schwarzschild vu par un observateur fixe situé à une distance de 50 rayons de Schwarzschild du centre de la Voie lactée.

En astrophysique, un trou noir est un objet dont l’existence est prédite par la théorie de la relativité générale. Un trou noir crée autour de lui une région de l’espace-temps dont la courbure est telle qu’au delà d’une limite appelée « horizon des événements, » rien, pas même la lumière, ne peut s’échapper. Malgré l’impossibilité fondamentale de voir un trou noir en tant que tel, leur existence dans l’univers est bien admise suite à de nombreuses observations indirectes, notamment de microquasars et de noyaux actifs de galaxies.

Lire la suite

Encelade (lune)

Encelade (S II Enceladus) est un satellite naturel de la planète Saturne découvert par William Herschel en 1789. Il s’agit du sixième satellite de Saturne par la taille et du quatorzième par son éloignement.

Depuis la mission Voyager 2 et surtout la mission Cassini-Huygens arrivée en orbite saturnienne en 2004, Encélade est réputé pour posséder plusieurs caractéristiques étonnantes, dont une géologie très complexe jusque là insoupçonnée, et une activité qui reste toujours actuellement difficile à expliquer pour un corps de si petite taille (500 km de diamètre en moyenne). La sonde Cassini a d’ailleurs observé à sa surface des jets, qui pourraient être semblables à des geysers, et qui semblent indiquer la présence d’eau liquide sous la surface.

Encélade tourne autour de Saturne au sein de l’anneau le plus externe et le plus ténu de tous, appelé anneau E ; cet anneau serait alimenté en permanence en particules par les « éruptions volcaniques » actuelles (ou récentes) d’Encélade.

Ce satellite est l’un des quatre seuls objets du système solaire (avec le satellite de Jupiter Io, celui de Neptune, Triton, et bien sûr la Terre) sur lesquels des éruptions ou des éjections de matière ont pu être directement observées.

Éruption du mont Saint Helens en 1980

Panache volcanique au-dessus du volcan le 18 mai 1980.
Panache volcanique au-dessus du volcan le 18 mai 1980.

L’éruption du mont Saint Helens en 1980, dans l'État de Washington, est l’éruption volcanique la plus importante jamais enregistrée aux États-Unis dans les 48 États contigus. Avec un indice d’explosivité volcanique de 5 et 1,2 km3 de matière rejetée, elle a dépassé en puissance destructrice et en volume de matière rejetée l’éruption de 1915 du pic Lassen en Californie.

L’éruption fut précédée par deux mois de séries de tremblements de terre et de jets de vapeur résultant de l’infiltration de magma à faible profondeur en dessous de la montagne. Le magma provoqua un réseau de fractures et de déformations dans la face nord du volcan. Le à h 32, un tremblement de terre déclencha un glissement de terrain majeur sur la face nord, exposant du même coup la roche à moitié en fusion, riche en gaz et en vapeur, à des pressions plus basses. En moins de vingt secondes le magma explosa sous forme d’un mélange de matériaux volcaniques très chauds. Cette nuée ardente se dirigea vers le lac Spirit à une vitesse telle qu’elle dépassa rapidement le glissement de terrain de la face nord.

Une colonne de cendres s’éleva alors dans l’atmosphère pour retomber sur le territoire de onze États américains. Dans le même temps, la neige et la glace de plusieurs glaciers présents sur le sommet se mirent à fondre, causant d’importantes coulées de boue, les lahars, qui atteignirent le lit de la rivière Columbia. Des épisodes volcaniques suivirent le lendemain, ainsi que des éruptions moins destructrices au cours de l'année 1980.

On dénombra 57 morts, dont le géologue David A. Johnston. Des milliers d’animaux furent tués. Près de trois milliards de mètres cubes de roches (l’équivalent d’un cube de 1 400 m de côté) dévalèrent en avalanche le versant nord et comblèrent en grande partie la vallée de la rivière Toutle. Sur une étendue de 380 km2, les forêts furent remplacées par des collines arides et grises. Les dégâts furent estimés à 2 ou 3 milliards de dollars US de l'époque et le mont Saint Helens affichait désormais une plaie béante sur sa face nord. La zone est depuis préservée en l’état, dans le cadre du Mount St. Helens National Volcanic Monument.

Théorème de Pythagore

Triangle rectangle et relation algébrique entre les longueurs de ses côtés.
Relation entre les longueurs des côtés dans un triangle rectangle.

Le théorème de Pythagore est un théorème de géométrie euclidienne qui met en relation les longueurs des côtés dans un triangle rectangle : le carré de la longueur de l’hypoténuse est égal à la somme des carrés des longueurs des deux autres côtés.

Ce théorème permet notamment de calculer l’une de ces longueurs à partir des deux autres. Il est nommé d’après Pythagore de Samos, philosophe de la Grèce antique. Cependant le résultat était connu plus de mille ans auparavant en Mésopotamie, et, même si les mathématiciens grecs en connaissaient probablement une démonstration avant Euclide, auteur dans ses Éléments de la plus ancienne qui nous soit parvenue, rien ne permet de l'attribuer à Pythagore. Par ailleurs le résultat a vraisemblablement été découvert indépendamment dans plusieurs autres cultures.

Les premières démonstrations historiques reposent en général sur des méthodes de calcul d’aire par découpage et déplacement de figures géométriques. Inversement, la conception moderne de la géométrie euclidienne est fondée sur une notion de distance qui est définie pour respecter ce théorème.

Divers autres énoncés généralisent le théorème à des triangles quelconques, à des figures de plus grande dimension telles que les tétraèdres, ou en géométrie non euclidienne comme à la surface d’une sphère.

Région HII

La nébuleuse de la Rosette dans la constellation de la Licorne.
La nébuleuse de la Rosette dans la constellation de la Licorne.

En astronomie, on appelle régions HII des nébuleuses à émission constituées de nuages principalement composés d'hydrogène et dont la plupart des atomes sont ionisés, qui s'étendent parfois sur plusieurs années-lumière de distance. L'ionisation est produite par la proximité d'une ou plusieurs étoiles très chaudes, de type spectral O ou B, qui rayonnent fortement dans l'ultraviolet extrême, ionisant ainsi le gaz alentour, à partir duquel ces étoiles se sont à l'origine formées.

Plus tard, les explosions en supernovæ et les forts vents stellaires provoqués par les étoiles les plus massives de l'amas stellaire finiront par disperser les particules de gaz restant, laissant derrière elles un amas d'étoiles tel que celui des Pléiades.

Les régions HII tirent leur nom de la présence en grande quantité d'hydrogène ionisé, noté [HII] (prononcer « hache deux »), à ne pas confondre avec l'hydrogène moléculaire (H2), et l'hydrogène neutre (HI).

Ces nuages de gaz ionisé sont visibles à de très grandes distances, et l'étude des régions HII extragalactiques est fondamentale pour déterminer les distances et la composition chimique des autres galaxies.

Lire la suite...

Paludisme

Moustique piquant la peau pour en aspirer le sang.

Le paludisme, également appelé malaria, est une parasitose due à un protozoaire, transmise par la piqûre d’un moustique appelé anophèle, qui se reproduit dans les zones marécageuses. Il provoque des fièvres intermittentes.

En 1931, il était encore présent en France, par exemple dans le marais poitevin, le golfe du Morbihan et en Camargue. Aujourd’hui, il est la cause d’environ deux millions de morts chaque année dans le monde, principalement dans les régions tropicales et en Afrique sub-saharienne. Il n’existe aucun vaccin à ce jour.

Lire l’article

Métathèse (chimie)

La métathèse est une réaction chimique se traduisant par l'échange d'un ou plusieurs atomes entre espèces chimiques structuralement apparentées, conduisant sur le plan formel à des composés dans lesquels les liaisons des différents types sont en même nombre et de même nature, ou presque, que dans les réactifs.

En chimie organique, la métathèse est une réaction dans laquelle s’intervertissent des radicaux entre molécules organiques.

Relativité générale

Courbure espace-temps

La relativité générale est une théorie relativiste de la gravitation, c’est-à-dire qu’elle décrit l’influence sur le mouvement des astres de la présence de matière et, plus généralement d'énergie, en tenant compte des principes de la relativité restreinte. La relativité générale englobe et supplante la théorie de la gravitation universelle d’Isaac Newton qui en représente la limite aux petites vitesses (comparées à la vitesse de la lumière) et aux champs gravitationnels faibles.

La relativité générale est principalement l’œuvre d'Albert Einstein, dont elle est considérée comme la réalisation majeure, qui l’a élaborée entre 1907 et 1915. Les noms de Marcel Grossmann et de David Hilbert lui sont également associés, le premier ayant aidé Einstein à se familiariser avec les outils mathématiques nécessaires à la compréhension de la théorie (la géométrie différentielle), le second ayant franchi conjointement avec Einstein les dernières étapes menant à la finalisation de la théorie après que ce dernier lui eut présenté dans le courant de l’année 1915 les idées générales de sa théorie.

La relativité générale est basée sur des concepts radicalement différents de ceux de la gravitation newtonienne. Elle stipule notamment que la gravitation n’est pas une force, mais est la manifestation de la courbure de l’espace (en fait de l’espace-temps), courbure elle-même produite par la distribution de matière. Cette théorie relativiste de la gravitation donne lieu à des effets absents de la théorie newtonienne mais vérifiés, comme l’expansion de l'Univers, ou potentiellement vérifiables, comme les ondes gravitationnelles et les trous noirs. Aucun des nombreux tests expérimentaux effectués à ce jour (2008) n’a pu la mettre en défaut, à l’exception possible de l’anomalie Pioneer qui pourrait être la première indication d’un écart entre les phénomènes observés et la relativité générale, quoique d’autres interprétations de ce phénomène soient envisageables.

Lire l’article

Acide chlorhydrique

L'acide chlorhydrique est une solution aqueuse de chlorure d'hydrogène HCl. C'est un acide fort (il s'ionise totalement en solution aqueuse), principal constituant des acides gastriques. C'est un acide couramment utilisé comme réactif chimique dans l'industrie. L'acide chlorhydrique étant un liquide très corrosif, il doit être manié avec précaution. L'acide chlorhydrique concentré peut avoir un pH inférieur à 1.

L'acide chlorhydrique, connu également dans l'histoire sous le nom d'acide muriatique (ce nom est antérieur à la découverte du chlore et de la formule chimique HCl) a été découvert par l'alchimiste Jabir Ibn Hayyan au voisinage de l'an 800. C'est un produit chimique qui a été fréquemment utilisé dans l'histoire depuis les débuts de la chimie. Au Moyen Âge, il était utilisé par les alchimistes dans leur quête de la pierre philosophale (sous le nom d'« esprit de sel » ou acidum salis). Il fut ensuite utilisé par de nombreux scientifiques, parmi lesquels Glauber, Priestley ou Davy, qui contribuèrent à établir la chimie moderne.

Au cours de la révolution industrielle, l'acide chlorhydrique devint un réactif chimique industriel important utilisé dans de nombreuses applications, notamment pour la production à grande échelle de composés organiques comme le chlorure de vinyle pour le PVC, ou comme le 4,4'-MDI/Diisocyanate de toluène pour le polyuréthane, ainsi que pour des applications à plus petite échelle comme la production de gélatine ou le traitement du cuir. La production d'acide chlorhydrique est voisine à l'heure actuelle de 20 millions de tonnes par an.

Pluie d'animaux

Il pleut des chats, des chiens et des fourches sur cette image humoristique du XIXe siècle.
Il pleut des chats, des chiens et des fourches sur cette image humoristique du XIXe siècle.

La pluie d'animaux est un phénomène météorologique extraordinaire de chute du ciel de nombreux animaux, souvent d'une seule espèce. Cette précipitation atypique est accompagnée ou non d'une averse classique. On trouve témoignage du phénomène dans de nombreux pays et à de nombreuses époques, et il a suscité mystères et controverses à travers l'Histoire. Ce type de phénomène n'ayant jamais été observé directement par des climatologues, les différentes explications proposées sont davantage du domaine de la spéculation.

Ce sont le plus souvent des poissons et des grenouilles qui se trouvent dans ces « pluies », mais certaines espèces d'oiseaux sont aussi fréquemment mentionnées. Le phénomène est parfois si violent que les animaux retombent déchiquetés. D'autres fois, les animaux survivent à cette chute, en particulier les poissons, ce qui laisse penser que le laps de temps séparant le « décollage » et le retour au sol est relativement faible. De nombreux témoignages décrivent les grenouilles tombées du ciel comme parfaitement intactes. Il arrive aussi fréquemment que les animaux tombent du ciel gelés, parfois emprisonnés dans la glace, ce qui tendrait à montrer que certains animaux terrestres ou aquatiques peuvent être aspirés par des trombes à des altitudes élevées, où la température est inférieure à 0 °C.

Tornade

Une tornade en fin de vie

Une tornade (de l'espagnol tornado, dérivé du verbe tornar, tourner) est un vortex (tourbillon) de vents extrêmement violents, prenant naissance à la base d'un nuage d'orage (cumulonimbus) lorsque les conditions de cisaillement des vents sont favorables dans la basse atmosphère. De très faibles tornades peuvent également se développer sous des nuages d'averses (cumulus bourgeonnant).

Ce phénomène météorologique a un pouvoir destructeur supérieur à celui d'un cyclone tropical au mètre carré, mais est de durée et d'étendue limitées : il concerne un corridor de quelques centaines de mètres de large sur quelques kilomètres de long. Les tornades engendrent les vents les plus forts signalés à la surface du globe, tuant chaque année de 300 à 400 personnes (selon une estimation de l'Organisation météorologique mondiale), dont 150 aux États-Unis.

Elles se produisent partout où les conditions sont favorables. Les zones rurales comme les villes peuvent subir ce phénomène. La plus grande densité nationale est, de manière surprenante, au Royaume-Uni mais ne représente cependant qu'une trentaine de tornades chaque année. La zone la plus active mondialement est la région du bassin du fleuve Mississippi et des Grandes Plaines où les tornades sont en général très puissantes. Les États du Texas, de l'Oklahoma, du Kansas et du Nebraska ont d'ailleurs acquis le surnom de « Tornado Alley » avec un tiers des tornades aux États-Unis d'Amérique.


Nanotube

Nanotubes d'hydroxyde de cobalt(II). Barre d'échelle : 500 nm (a et b), 200 nm (en médaillon), 50 nm (c et e), 100 nm (d).

Un nanotube est une structure cristalline particulière, de forme tubulaire, creuse et close, composée d'atomes disposés régulièrement en pentagones, hexagones et/ou heptagones, obtenue à partir de certains matériaux, en particulier le carbone et nitrure de bore.

Proches des fullerènes, les nanotubes de carbone sont l'un des premiers produits industriels du domaine des nanotechnologies. Ils permettent de réaliser des transistors à un niveau de miniaturisation jamais atteint jusqu'à maintenant.

Lire l'article

Sondes Voyager

La sonde spatiale Voyager 2.

Les sondes spatiales Voyager 1 et 2 ont réalisé depuis 1977 une moisson d’observations astronomiques qui ont plus d’une fois mis en question les théories planétologiques, au cours d’une épopée spatiale d’une durée exceptionnelle, qui se poursuit désormais vers l’espace interstellaire. Elles ont exploré le voisinage de Jupiter, Saturne, Uranus, Neptune et 48 de leurs lunes.

Ambassadeurs interstellaires, ces deux engins ont à leur bord un message à destination d’autres êtres doués d’intelligence. Chaque Voyager renferme ainsi un disque contenant des images (un cercle, la position de notre étoile, la définition des chiffres et des unités employées en physique et quelques paramètres sur le système solaire, plusieurs planches anatomiques et plusieurs dizaines de photographies d’hommes, d’animaux, de végétaux, etc.), ainsi que des extraits musicaux.

Lire l’article

La Valeur de la Science

La Valeur de la Science est un ouvrage du mathématicien, physicien et philosophe français Henri Poincaré (publié en 1905). Poincaré y traite de questions de philosophie des sciences et apporte des précisions sur des sujets abordés dans son précédent livre, La Science et l'Hypothèse (1902).

Lire l'article

Benzène

Formule topologique du benzène
Formule topologique du benzène

Le benzène est un composé organique de formule brute C6H6, également noté Ph-H, φ-H, ou encore ϕ-H. Il appartient à la famille des hydrocarbures aromatiques monocycliques, car le cycle formé par les six atomes de carbone est plan et comporte six électrons délocalisés. Dans les conditions usuelles, le benzène est un liquide incolore, d'odeur caractéristique, volatil, très inflammable et cancérogène.

C'est un précurseur important pour la synthèse chimique de nombreux composés organiques : matières plastiques, caoutchoucs, solvants, plastifiants, détergents, parfums, colorants, additifs alimentaires, médicaments, pesticides, explosifs… Il est également utilisé comme solvant dans différentes industries, et comme additif antidétonant dans l'essence. Il est produit par l'industrie pétrochimique essentiellement par reformage catalytique, hydrodésalkylation du toluène et vapocraquage.

Big Bang

Expansionde l'Univers.

Le Big Bang désigne l’époque dense et chaude qu’a connue l’univers il y a environ 13,7 milliards d’années, ainsi que l’ensemble des modèles cosmologiques qui la décrivent, sans que cela préjuge de l’existence d’un « instant initial » ou d’un commencement à son histoire.

Cette phase marquant le début de la dilatation et de l’expansion de l’univers, abusivement comparé à une explosion, a été désignée pour la première fois, et ce de façon assez dédaigneuse, sous ce terme de Big Bang par le physicien anglais Fred Hoyle lors d’un programme radio de la BBC, The Nature of Things (littéralement « La nature des choses »), dont le texte fut publié en 1950. Hoyle ne décrivait pas la théorie, mais se moquait du concept car il proposait un autre modèle cosmologique, aujourd’hui abandonné, la théorie de l’état stationnaire, dans lequel l’univers n’a pas connu de phase dense et chaude. Malgré ce côté initialement méprisant, l’expression est restée et a perdu sa connotation péjorative et ironique pour devenir le nom scientifique et vulgarisé de l’époque d’où est issu l’univers tel que nous le connaissons.

Le terme de Big Bang chaud (Hot Big Bang) est encore parfois utilisé pour souligner le fait que le modèle prédit que l’univers était plus chaud quand il était plus dense. Il se réfère au concept de Big Bang décrit ci-dessous. Le qualificatif de « chaud » était parfois ajouté car le fait que l’on puisse associer une notion de température à l’univers dans son ensemble n’était pas encore bien compris au moment où le modèle a été proposé au milieu du XXe siècle.

Lire la suite

Champ magnétique

Ferrofluide soumis à un champ magnétique dont l’instabilité provoque des pointes qui l’emportent sur la gravité et la tension superficielle du fluide.
Ferrofluide soumis à un champ magnétique dont l’instabilité provoque des pointes qui l’emportent sur la gravité et la tension superficielle du fluide.

En physique, le champ magnétique est une grandeur caractérisée par la donnée d’une intensité et d’une direction, définie en tout point de l’espace, et déterminée par la position et l’orientation d’aimants, d’électroaimants et le déplacement de charges électriques. La présence de ce champ se traduit par l’existence d’une force agissant sur les charges électriques en mouvement (dite force de Lorentz), et divers effets affectant certains matériaux (paramagnétisme, diamagnétisme ou ferromagnétisme selon les cas). La grandeur qui détermine l’interaction entre un matériau et un champ magnétique est la susceptibilité magnétique.

Le champ magnétique forme, avec le champ électrique les deux composantes du champ électromagnétique décrit par l’électromagnétisme. Des ondes de champs électrique et magnétique mêlées peuvent se propager librement dans l’espace, et dans la plupart des matériaux. Ces ondes sont appelées ondes électromagnétiques, et correspondent à toutes les manifestations de la lumière, dans tous les domaines de longueur d’onde (ondes radio, domaine micro-onde, infrarouge, domaine visible, ultraviolet, rayons X et rayons gamma). La discipline qui étudie les champs magnétiques statiques (ne dépendant pas du temps) est la magnétostatique.

Corrosion aqueuse

Corrosion par piqûre d’un alliage d’aluminium de qualité supérieure, de la famille des 7000
Corrosion par piqûre d’un alliage d’aluminium de qualité supérieure, de la famille des 7000

La corrosion aqueuse est un phénomène dont l’impact économique est très important, nécessitant une grande variété de moyens de protection des métaux. La corrosion désigne l’altération par l’environnement d’un objet manufacturé.

Les exemples les plus connus sont les altérations chimiques des métaux dans l’eau (avec ou sans oxygène), telles la rouille du fer et de l’acier ou la formation de vert-de-gris sur le cuivre et ses alliages (bronze, laiton). Ces altérations chimiques, le plus souvent des oxydo-réductions, sont regroupées sous le terme de corrosion aqueuse.

Elles sont dues à des effets de plusieurs sortes : dissolution des métaux dans l’eau, apparition de piles électrochimiques, existence de gradients de concentration, aération différentielle ou piqûration.

Lire la suite

Datation au carbone 14

tissu en lin de la Mer morte
tissu en lin de la Mer morte

La datation au carbone 14 est une méthode de datation radioactive basée sur la mesure de l'activité radiologique du carbone 14 contenu dans de la matière organique dont on souhaite connaître l'âge absolu depuis sa mort. Elle a été inventée par Willard Frank Libby en 1939.

Lire la suite

Galaxie

Dans l’univers, les étoiles ne sont généralement pas isolées mais regroupées au sein de vastes ensembles appelés galaxies. Celles-ci incluent aussi les gaz et poussières du milieu interstellaire et probablement de grandes quantités de matière noire. De nombreux indices suggèrent que le centre de nombreuses galaxies est occupé par un trou noir de masse importante. Notre système solaire se trouve dans la « Voie lactée », une galaxie d’environ 100 000 années lumières de diamètre.

Lire l'article

Cassini-Huygens

Vue d'artiste de l'insertion de la sonde Cassini-Huygens dans l'orbite de Saturne.
Vue d'artiste de l'insertion de la sonde Cassini-Huygens dans l'orbite de Saturne.

Cassini-Huygens est une mission d'exploration spatiale de la planète Saturne et ses lunes par une sonde spatiale développée par l'agence spatiale américaine de la NASA avec des participations importantes de l'Agence spatiale européenne (ESA) et de l'Agence spatiale italienne (ASI). Lancé en octobre 1997 l'engin s'est placé en orbite autour de Saturne en 2004. En 2005 l'atterrisseur européen Huygens après s'être détaché de la sonde mère s'est posé à la surface de la lune Titan et a pu retransmettre des informations collectées durant la descente et après son atterrissage. L'orbiteur Cassini orbite depuis autour de Saturne et poursuit l'étude scientifique de la planète géante en profitant de ses passages à faible distance de ses satellites pour collecter des données détaillées sur ceux-ci. La mission d'une durée initiale de 4 ans a été prolongée à deux reprises  : de 2008 à 2010 (Equinox mission) et de 2010 à 2017 (Solstice Mission). Il est prévu que la sonde spatiale s'écrase sur la planète Saturne à l'issue de cette dernière phase.

Le principe d'une mission d'étude du système de Saturne émerge en 1982 à la fois dans les communautés scientifiques américaine et européenne. Après avoir travaillé sur des projets séparés, la NASA et l'Agence spatiale européenne lancent à la fin des années 1980 le développement d'une mission conjointe : la NASA développe l'orbiteur et l'ESA l'atterrisseur qui doit se poser sur Titan. Le projet frôle à plusieurs reprises l'annulation à la suite des difficultés budgétaires de la NASA. Des mouvements écologistes tentent d'interdire le lancement de la sonde spatiale à cause du plutonium embarqué pour alimenter en énergie la sonde spatiale. Finalement la sonde spatiale est lancée le 15 octobre 1997 par un lanceur lourd Titan IV-B.

Cassini-Huygens est une mission particulièrement ambitieuse et couteuse (3,26 milliards $) rattachée à ce titre au programme Flagship de la NASA. Avec une masse totale de 5,6 tonnes (dont 3,1 tonnes de carburant et 350 kg pour l'atterrisseur Huygens) il s'agit du plus gros engin spatial lancé vers les planètes externes. L'orbiteur Cassini embarque 12 instruments scientifiques dont un radar tandis que Huygens en emporte six. Cassini est stabilisé trois axes et son énergie est fournie par trois générateurs thermoélectriques à radioisotope utilisant du plutonium.

La mission Cassini-Huygens a rempli tous ses objectifs scientifiques en fournissant une moisson de données sur Saturne, sa magnétosphère, ses anneaux, Titan et les autres lunes de la planète géante. Les caméras de l'orbiteur ont également fourni certaines des plus belles images du système solaire. Cassini a notamment permis d'obtenir les premières images détaillées de Phœbé, d'analyser en détail la structure des anneaux de Saturne, d'étudier Titan de manière approfondie et de découvrir une dizaine de nouvelles lunes de Saturne de petite taille (moins de 10 km), portant le nombre total de satellites saturniens à 62 (nombre connu au 1er mai 2012). La sonde a permis également de découvrir de nouveaux anneaux de Saturne.

OGM

Un organisme génétiquement modifié (ou OGM) est un organisme dont le génome a été modifié par génie génétique. Cette modification peut être réalisée selon différentes techniques, en fonction du but recherché.

Pour certains, technique utilisée sans contrôle dans un objectif mercantile d’hégémonie commerciale, organismes contre-nature, bafouant l’éthique, voire blasphématoires pour d’autres, progrès de la science et de la société pour d’autres encore, les organismes transgéniques suscitent de vifs débats.

Lire l’article

Phonon

Longueur d’onde d’un phonon dans un réseau de particules
Longueur d’onde d’un phonon dans un réseau de particules

Un phonon (du grec ancien φονη, la voix) désigne, en physique de la matière condensée, un quantum de vibration dans un solide cristallin, c’est-à-dire un « paquet élémentaire de vibration » ou « paquet élémentaire de son » : lorsqu’un mode de vibration du cristal, de fréquence définie ν, cède ou gagne de l’énergie, il ne peut le faire que par paquets d’énergie , h étant la constante de Planck. Ce paquet est considéré comme une quasi-particule, à savoir une particule fictive associée au son. Le cristal est alors réputé échanger des phonons lorsqu’il perd ou gagne de l’énergie. Le concept permet une analogie avec la lumière qui possède des propriétés similaires : elle se manifeste tantôt comme une onde, tantôt comme un paquet d’énergie , qui correspond à une particule élémentaire — non fictive cette fois — appelée photon.

Lire la suite

aspirine

cristaux d'aspirine
cristaux d'aspirine

L'acide acétylsalicylique est un médicament analgésique et antipyrétique, plus connu sous le nom d'aspirine. La marque « Aspirin » a été créée en 1894 par l'entreprise allemande Bayer AG. Obtenu par synthèse et introduit en thérapeutique en 1899 grâce aux travaux du chimiste Adolf von Baeyer, l'aspirine est la version moderne d'un médicament basé sur la décoction de l'écorce du saule blanc. Connues en partie déjà durant l'Antiquité, les propriétés de l'acide salicylique sont multiples : lutte contre la douleur et la fièvre, anti-inflammatoire ou encore antiagrégant plaquettaire.

Lire l'article

théorie du chaos

La théorie du chaos traite des systèmes dynamiques rigoureusement déterministes, mais qui présentent un phénomène fondamental d'instabilité appelé « sensibilité aux conditions initiales » qui, modulant une propriété supplémentaire de récurrence, les rend non prédictibles en pratique sur le « long » terme.

Elle regroupe en son sein des lois universelles applicables dans de nombreux domaines tels que la météorologie ou l’astrophysique. Le calcul de la trajectoire de la fumée est un bon exemple pour illustrer de la théorie du chaos : en effet, la trajectoire des particules de fumée dépend d'une infinité de facteurs (mouvement et position du combustible, humidité de l’air, trajectoire, force et fréquence du vent par exemple).

Théorie scientifique expliquant de manière rationnelle l’imprévisible, caractérisée par l’existence d’invariants prenant la forme de mesures de probabilités, d’attracteurs, de dimensions fractales… Toutes les sciences, y compris sociales, sont concernées par ce changement de paradigme, afin de répondre à l’intuition de Platon (reformulée par James Gleick) : « [...] derrière les formes visibles et particulières de la matière doivent se cacher des formes fantomatiques qui leurs servent de modèle invisible. »

Lire l’article

Équation de Schrödinger

L'équation de Schrödinger conçue par le physicien autrichien Erwin Schrödinger en 1925, est une équation fondamentale en physique quantique. Elle décrit l'évolution dans le temps d'un système et remplit ainsi le même rôle que la relation fondamentale de la dynamique en mécanique classique. Cette équation est une généralisation des travaux de Louis de Broglie sur la dualité onde-corpuscule de la lumière, c'est-à-dire qu'elle peut se manifester, selon les circonstances, soit comme une particule, le photon, soit comme une onde électromagnétique.

Lire l’article

Francium

Modèle de Bohr du Francium
Modèle de Bohr du Francium

Le francium est un élément chimique de numéro atomique 87 connu pendant un temps sous les noms de eka-césium ou actinium K. C'est un métal alcalin radioactif de masse atomique 223 et de symbole Fr.

C'est le second élément le plus rare, après l’astate : il n'en existerait qu'une trentaine de grammes dans la croûte terrestre.
Cette rareté est due à son existence transitoire, en tant que produit de désintégration de l'actinium. La demi-vie de l'isotope le plus stable 223Fr est de 23 minutes, puis il se transforme lui-même en radium par désintégration bêta ou en astate par rayonnement alpha. Et c'est cette double radioactivité qui rend l'astate encore plus rare que le francium, même si l'astate a une demi-vie supérieure à celle du francium (8,1 h > 23 min).

Le francium a été découvert en 1939 à l'Institut Curie de Paris par Marguerite Perey, en purifiant du lanthane contenant de l'actinium. Il s'agit du dernier élément découvert dans la nature et non synthétisé (certains éléments tels le technétium ont été découverts dans la nature après avoir été synthétisés en laboratoire).

Il n'a pas d'utilisation connue.

Etoile de Barnard

Étoile de Barnard
Étoile de Barnard

L'étoile de Barnard est une étoile de la constellation d'Ophiuchus. Cette naine rouge de type M est principalement connue pour être l'étoile possédant le mouvement propre le plus important (10,3" par an). L'étoile est nommée en l'honneur de l'astronome Edward Emerson Barnard qui découvrit cette propriété en 1916. Située à une distance de 1,828 parsec (soit 5,96 années-lumière), c'est la cinquième étoile la plus proche de la Terre après le Soleil et les trois composantes d'Alpha Centauri. L'étoile est cependant invisible à l'œil nu en raison de sa faible luminosité.

Thermoélectricité

Module Peltier.
Module Peltier.

L'effet thermoélectrique, découvert puis compris au cours du XIXe siècle grâce aux travaux de Seebeck, Peltier ou encore Lord Kelvin, est un phénomène physique présent dans certains matériaux : il y lie le flux de chaleur qui les traverse au courant électrique qui les parcourt. Cet effet est à la base d'applications, dont très majoritairement la thermométrie, puis la réfrigération (ex. module Peltier) et enfin, très marginalement, la génération d'électricité (aussi appelée « thermopile »).

Un matériau thermoélectrique transforme directement la chaleur en électricité, ou déplace des calories par l'application d'un courant électrique. Un grand nombre des matériaux possédant des propriétés thermoélectriques intéressantes ont été découverts au cours des décennies 1950 et 1960. C'est notamment le cas du tellurure de bismuth (Bi2Te3) utilisé dans les modules Peltier commerciaux, ou des alliages silicium-germanium (SiGe) utilisés pour l'alimentation des sondes spatiales dans des générateurs thermoélectriques à radioisotope.

L'utilisation de la thermoélectricité en thermométrie connaît un grand succès depuis le début du XXe siècle et en réfrigération portable depuis les années 2000. Par contre, la thermopile a du mal à émerger car son rendement est peu élevé et les coûts sont importants, cela les limite à des utilisations très ciblées en 2005 (il n'y a pas encore de marché de niche pour la thermopile). Cependant des progrès récents, ainsi qu'un nouvel intérêt pour la thermoélectricité dû à la fois à la hausse des coûts de l'énergie et aux exigences environnementales, ont conduit à un renouveau important des recherches scientifiques dans cette discipline.

Science et ingénierie de Léonard de Vinci

Une page du Codex Atlanticus sur des systèmes d'irrigation, rédigé et dessiné par Léonard de Vinci entre 1480 et 1482 (Milan, bibliothèque Ambrosienne, no f26v).
Une page du Codex Atlanticus sur des systèmes d'irrigation, rédigé et dessiné par Léonard de Vinci entre 1480 et 1482 (Milan, bibliothèque Ambrosienne, no f26v).

La science et l'ingénierie sont deux domaines, au-delà des arts plastiques, dans lesquels Léonard de Vinci s’est illustré à travers des recherches et dessins et dont témoignent ses carnets et projets de traités.

Si sa motivation première est artistique — avec la représentation la plus juste possible des corps, de la nature, de l'ombre et de la lumière, ou encore des proportions —, il est entraîné dès les années 1480 dans des études aux directions variées, faisant de lui l'archétype des ingénieurs-artistes polymathes de la Renaissance : l'anatomie humaine et comparée ; les mathématiques et particulièrement la géométrie ; la botanique et la géologie ; l'optique et l'astronomie ; l'architecture, l'urbanisme et la cartographie ; les machines de guerre ou volantes ; en ingénierie, la mécanique générale ainsi que l'hydraulique.

Participant à la Renaissance italienne, Léonard de Vinci se situe à ce moment charnière où les savants perçoivent, sans pour autant parvenir à les dépasser, les limites des théories scientifiques et l'inefficience des technologies contemporaines, héritées de l'Antiquité et encore ancrées dans le Moyen Âge. Se revendiquant scientifique et surtout ingénieur, il ne bénéficie cependant que d'une formation sommaire puisqu'il ne fréquente que deux ans une école pour futurs commerçants puis est intégré au sein de l'atelier d'Andrea del Verrocchio, lui-même artiste polymathe, qui lui fait découvrir la peinture et la sculpture, et l'initie également aux techniques permettant de les mettre en œuvre, comme la fonderie, la métallurgie ou l'ingénierie. En outre, l'importance et l'intensité de son travail dans chacun des domaines envisagés le conduisent presque invariablement à envisager la création d'un traité. Néanmoins, pas un seul n'est mené à son terme du fait de sa tendance à l'inachèvement.

Diversement reconnu par ses contemporains, son parcours scientifique et d'ingénieur n'est que tardivement redécouvert au tournant des XVIIIe et XIXe siècles. D'abord considérée comme celle d'un génie absolu, inégalée et isolée parmi ses contemporains, la figure de Léonard est, au mitan du XXe siècle, fortement remise en question. Ses limites sont dès lors mises en avant, en particulier ses bagages : théoriques, du fait de ne pas avoir fréquenté les universités ; notionnels, par méconnaissance du grec et du latin alors porteurs du vocabulaire technique et scientifique. Pour autant, Léonard de Vinci est, à l'orée du XXIe siècle, replacé dans son contexte : il est désormais considéré comme un savant de son temps, héritier des connaissances et des croyances médiévales, et dont le travail bénéficie des avancées de contemporains comme celles de Filippo Brunelleschi, Giuliano da Sangallo ou Francesco di Giorgio Martini.

Bien que ses apports soient relativisés, les historiens des sciences lui reconnaissent d'avoir introduit l'utilisation du dessin technique en tant que support de mémoire et pédagogique ; d'avoir poussé à leur perfection les techniques de représentations et de les avoir appliquées à tout sujet technologique. De même, son travail se distingue par son caractère systématique et par une attention aussi aiguë pour le détail que pour l'ensemble. Enfin, ses recherches se singularisent de ses contemporains par un souci de rentabilisation économique du travail par la recherche systématique de l'automatisation des mécanismes.