Overblog
Suivre ce blog Administration + Créer mon blog
11 juin 2010 5 11 /06 /juin /2010 01:20
http://www.zigonet.com
Une chaussure de 5.500 ans découverte
Une chaussure de 5.500 ans découverte

C’est la plus vieille chaussure au monde découverte jusqu’à aujourd’hui et elle a été trouvée en Arménie, dans une caverne et dans le cadre de travaux archéologiques menés à cet endroit.


La chaussure ressemble davantage à un mocassin et a été faite dans un seul morceau de cuir, explique l’AFP.

 

Elle semble d’ailleurs avoir été travaillée afin de mouler le pied de l’individu l’ayant portée, et sa découverte a été relayée dans la revue scientifique américaine en ligne PLoS ONE.

 

Les chercheurs qui ont trouvé la chaussure pleine d’herbe séchée ne peuvent expliquer s’il s’agit d’une technique pour garder le pied au chaud ou bien pour maintenant la forme de la chaussure.


Et un archéologue du College Cork d’expliquer à l’Agence France Presse : "
On ne sait pas non plus si ce mocassin appartenait à un homme ou à une femme […]Bien que cette chaussure soit de taille 37, selon le système de mesure européen, elle aurait pu aussi être portée par un des hommes de cette époque, qui étaient plus petits qu'aujourd'hui."


La chaussure a été trouvée dans la province arménienne de Vayot Dzor, dans une caverne fraîche et sèche. Et concernant l’ "âge" de la chaussure, estimé à 5.500 ans, l’archéologue répond :

 

"Nous pensions tout d'abord que le mocassin et les autres objets contenus dans la caverne dataient seulement de 600 à 700 ans car ils étaient en très bon bon état […]Ce n'est qu'après que ces objets furent datés au radiocarbone par deux laboratoires, un à l'Université d'Oxford (Grande-Bretagne) et l'autre en Californie, que nous avons réalisé que le mocassin était antérieur de plusieurs centaines d'années à ceux portés par Ötzi, l'humain congelé et déshydraté découvert fortuitement en septembre 1991 à 3.200 mètres d'altitude, à la frontière austro-italienne."

 

Source : Zigonet

Partager cet article
Repost0
10 juin 2010 4 10 /06 /juin /2010 11:08

 

Les changement du climat est un fait mais quelle en est la cause et, d'ailleurs, faut-il en chercher une ? Voilà une question fondamentale, aujourd'hui débattue, mais pas toujours avec les bons arguments. Gavin Schmidt, climatologue au NASA Goddard Institute for Space Studies (GISS), y répond dans un article publié du blog Real Climate et que nous reproduisons ici, en français.


Comment savons-nous ce qui a provoqué un changement climatique, ou même s’il a une cause ?


Il s'agit d'une question centrale en ce qui concerne l'évolution destempératures des dernières années, mais bien sûr elle est beaucoup plus générale et s'applique à toute une série de changements climatiques sur l'ensemble des échelles de temps.

 

A en juger par les commentaires que nous recevons sur Real Climate et les discussions ailleurs sur le Web, il y a une certaine confusion sur la façon dont ce processus fonctionne et ce sur qui peut (et ne peut pas) être affirmé avec certitude.

 

Par exemple, beaucoup de gens semblent (à tort) penser que l'attribution ne repose que sur une corrélation naïve de la température moyenne mondiale, ou qu'elle est impossible sauf si un changement est « sans précédent » ou encore que les réponses sont basées sur notre manque d'imagination sur les autres causes.


En fait, comme on va le voir, le processus est plus complexe que ce que ces idées fausses laissent à penser.

En bref :


  • vous ne pouvez pas faire d'attribution basée uniquement sur les statistiques,
  • l’attribution n'a rien à voir avec quelque chose qui est « sans précédent »,
  • vous avez toujours besoin d'un modèle d'une sorte ou d’une autre,
  • plus nette est l'empreinte d'une cause particulière, plus il est facile de détecter cette cause.

Notez que cela aide énormément de réfléchir à l'attribution dans des contextes qui n'ont rien à voir avec les causes anthropiques, essentiellement parce que cela permet de penser un peu plus clairement le problème.


Tout d'abord, pensez à la différence entre l'attribution dans le cas d’une science d'observation, comme la climatologie (ou la cosmologie, etc.) par rapport à une science de laboratoire (microbiologie ou science des matériaux).

 

Dans un laboratoire, il est relativement facile de démontrer cause et effet. Vous configurez les expériences. Si ce que vous attendez est un phénomène réel, vous devriez être capable de le reproduire encore et encore et d'obtenir suffisamment d'exemples pour démontrer de manière convaincante qu'une cause particulière a un effet particulier.

 

Notez que vous ne pouvez pas démontrer qu’un effet particulier ne peut avoir que cette cause et pas une autre, mais si vous voyez cet effet dans le monde réel et pensez que votre cause est également présente, alors avez une très bonne chance (mais pas 100%) que la cause précise est à blâmer.


Pourquoi avez-vous besoin d'un laboratoire pour faire cela ?

C'est parce que dans le monde réel le signal est toujours bruité. Il y a toujours quelque chose qui se passe qui fait que nos théories (réductrices) sont moins applicables que nous le souhaiterions.

 

Dehors, nous ne pouvons pas obtenir des conditions de température et de pression parfaitement stabilisées ; nous ne pouvons pas maintenir la turbulence dans son état initial ; nous ne pouvons pas protéger les appareils de rayons cosmiques, etc.

 

Au laboratoire, nous pouvons faire tout cela et faire en sorte que (on l'espère) l'expérience soit pure ou ramenée à l'essentiel. Il y a bien sûr encore du « bruit» (l'imprécision des instruments de mesure, etc.) et vous avez besoin de refaire l’expérience de nombreuses fois dans des conditions légèrement différentes pour être sûr que votre cause donne vraiment l'effet que vous recherchez.


La clé de ce type d'attribution est la répétition, et c'est là où il devrait être évident que pour les sciences d'observation, vous allez devoir trouver un autre moyen, puisque nous ne pouvons généralement pas refaire l'Holocèneni le Big Bang ni le vingtième siècle (heureusement).


La répétition peut être utile lorsque vous avez des événements eux-mêmes répétitifs dans la nature (les cycles de glaciation, les marées, les éruptionsvolcaniques, les saisons etc.).

 

Cela donne la possibilité de lisser plus d'effetsparasites indépendants pour obtenir le signal. Pour les effets des éruptions volcaniques en général, cela a sans aucun doute été une technique utile (de Robock et Mao (1992) à Shindell et al. (2004)).

 

Mais la plupart des événements survenus dans l'histoire géologique sont singuliers. Peut-être ont-ils été plus fréquents, mais nous ne disposons de bonnes observations que pour une manifestation – le maximum thermique du Paléocène-Eocène, l'événement KT, l’événement froid à 8200 ans, le Petit âge glaciaire, etc. – et une autre approche est nécessaire.


Dans le monde réel, nous attribuons tout le temps des causes à des événements singuliers (dans les affaires judiciaires, par exemple) et nous avons donc une expérience pratique de cette méthode.

 

Si les preuves qui relient des braqueurs donnés à un braquage de banque sont fortes, le procureur peut obtenir une condamnation sans qu’il soit nécessaire que ces crimes aient été « sans précédent », et sans avoir à prouver expressément que tout le monde était innocent sauf eux.

 

Au lieu de cela, le procureur (idéalement) recrée le scénario des événements tel qu’il pense qu’ils se sont déroulés (appelons cela un modèle, faute d'un meilleur mot).

Son travail consiste alors à rechercher des faits matériels qui sont la manifestation des conséquences de ce scénario (le suspect aurait été vu par cette caméra à ce moment, l'ADN sur les lieux correspondrait à l’échantillon d'un suspect, l'argent serait trouvé dans le congélateur, etc.).

 

Il est évidemment important de s'assurer que le récit n'est pas simplement une histoire montée de toutes pièces dans laquelle les circonstances sont enchaînées de façon à suggérer la culpabilité alors qu’aucune autre preuve ne vient renforcer cette histoire particulière. En effet, ces récits sont beaucoup plus convaincants quand il y a des confirmations extérieures à l’ensemble qui a servi à construire le scénario.


On peut généraliser : la condition requise est double, il faut disposer de

  1. un modèle d’une sorte ou d’une autre qui fait des prédictions des événements qui devraient et ne devraient pas s’être produits en fonction de certaines causes spécifiques,
  2. un ensemble d’événements ou de phénomènes qui n’étaient pas connus ou qui n’ont pas servi à la construction du modèle.

Il existe de nombreux modèles disponibles, ils sont très variés dans leur conception et dans leur complexité. Ils peuvent être statistiques, empiriques, physiques, numériques ou conceptuels.

 

Leur utilité est fondée sur leur spécificité, sur la manière dont leurs prédictions se distinguent de celles des autres modèles et sur leur capacité à éviter les complications inutiles (c'est le principe de parcimonie, alias rasoir d'Occam). Toutes choses étant égales par ailleurs, une explication plus simple est généralement préférée comme hypothèse de travail.

http://www.futura-sciences.com/uploads/RTEmagicC_Diapo1_07.jpg.jpg
Evolutions de la température mesurée dans les 4 canaux TLT, TMT, TTS et TLS des sondeurs de température MSU (Microwave Sounding Unit) et AMSU (Advanced Microwave Sounding Unit). Le refroidissement de la stratosphère(canal TLS, figure du bas) et le réchauffement de la basse troposphère (canal TLT, figure du haut) sont une signature de l'augmentation de l'effet de serre.


La condition préalable est toutefois que le modèle doit être prédictif. Il ne peut pas simplement être un ajustement aux observations.

 

Par exemple, on peut adapter une série de Fourier à un ensemble de données qui est purement aléatoire, mais aussi précis que soit l'ajustement il ne donnera pas de bonnes prédictions. De même, un ajustement linéaire ou quadratique à une série temporelle peut être utile sous forme de statistiques descriptives, mais s’il n’y a aucune raison de penser qu'il existe une base sous-jacente à une telle tendance, il a très peu de valeur prédictive.

 

En fait, tout ajustement statistique des données doit nécessairement essayer de faire correspondre les observations en utilisant une contrainte mathématique (i.e. en recherchant le moindre carré résiduel, ou en minimisant la pente, en utilisant des sinusoïdes, ou des ondelettes, etc.) et puisqu’il n'y a aucune raison physique de supposer que l'une de ces contraintes s'applique au monde réel, aucune approche purement statistique ne sera très utile dans l'attribution (bien que cela soit tenté tout le temps).


Pour être clair, définir n'importe quel signal climatique forcé par un forçage externe comme le simple ajustement aux données n'est pas suffisant (que cet ajustement soit linéaire, quadratique, polynomiale ou spline, peu importe). Le corollaire qui définit la « variabilité du climat interne » comme le résidu de cet ajustement ne fonctionne pas non plus.


Alors que pouvez-vous faire ?

 

La première chose à faire est de s'éloigner de l'idée que vous pouvez vous contenter de n’utiliser qu’un seul indicateur tel que la température mondiale par exemple. Nous avons beaucoup plus d’informations que cela : la distribution spatiale (les patterns) des changements à la surface, dans l'atmosphère, et dans les océans. En utilisant toute la complexité des « empreintes digitales » (la distribution spatiale typique) des changements, on peut faire un bien meilleur travail de discrimination entre les hypothèses concurrentes qu’en se limitant aux simples régressions linéaire multiples d’une unique série temporelle.

 

Par exemple, il y a une grande différence entre les changements forcés par l'énergie solaire et ceux liés aux émissions de CO2. Les changements dans la stratosphère s’effectuent en tandem avec la basse atmosphère pour les variations solaires, alors qu’ils sont opposés pour le CO2. Les changements dus aux aérosols ont souvent une distribution spatiale spécifique et donc ont une signature régionale spécifique qui peut être distinguée des variations de gaz à effet de serre bien mélangés.


Les distributions spatiales prévues pour n'importe quel forçage particulier (c'est-à-dire leurs empreintes digitales) peuvent être estimées à partir d'un modèle climatique ou même à partir d’une série de modèles climatiques dont les différences servent comme une estimation de leur incertitude structurelle.

Si ces patterns sont robustes, alors on peut être relativement confiants de ce qu'ils sont un bon reflet des hypothèses sous-jacentes à la construction des modèles.

 

On peut alors examiner le monde réel pour voir si les changements observés peuvent s'expliquer par une combinaison des empreintes digitales des différents forçages (solaire, aérosols, changement d’utilisation des sols, effet de serre, etc.).

 

Un point important à souligner est qu'il est facile de tenir compte de certaines imperfections du modèle, par exemple, si les changements du pattern solaire semblent sous-estimés en intensité, on peut essayer de voir si un facteur multiplicatif permettrait d'améliorer l’accord. On peut également appliquer des tests indépendants sur les modèles afin d'essayer de s'assurer que seuls les « bons » modèles sont utilisés, ou du moins de démontrer que les conclusions ne sont pas sensibles à ces choix.


Ces techniques, bien sûr, exigent de faire quelques hypothèses. Tout d'abord, celle que la répartition spatio-temporelle des réponses associée à un forçage particulier est assez précise (même si l’amplitude des changements peut être trop grande ou trop petite, sans causer de problème).

 

Dans une large mesure c'est le cas – le pattern refroidissement stratosphérique-réchauffement troposphérique lié à l’augmentation du CO2et des autres GES est bien compris, comme le sont qualitativement le pattern terres-océans, le pattern Nord-Sud et les caractéristiques d'amplification de l'Arctique. La valeur exacte de l'amplification polaire est cependant bien incertaine, même si cela affecte tous les schémas de réponse quel que soit le forçage et n'est donc pas un facteur crucial.

 

Plus problématiques sont les résultats qui indiquent que les forçages spécifiques existants pourraient avoir un impact sur la variabilité des patterns régionaux, comme l'oscillation arctique ou El Niño. Dans ces cas, il est clair que distinguer la variabilité naturelle interne du changement forcé est plus difficile.


Dans tout ce qui précède, on a besoin d’estimations de l’amplitude et la distribution spatiale de la variabilité interne. Celles ci peuvent être déduites de simulations du modèle (par exemple en utilisant les runs de contrôle de la période pré-industrielle qui fonctionnent sans forçage), ou estimées à partir des données d'observation. Cette dernière approche est problématique, car il n'y a pas de période "propre" où il n'y aurait que la variabilité interne –volcans, variabilité solaire, etc., ont eu une incidence sur les climat avant même le 20e siècle.

 

Ainsi, les estimations les plus simples viennent des MCG (modèles de circulation générale). Chaque modèle a une expression différente de la variabilité interne (certains ont une activité ENSO trop forte par exemple, alors que certains en ont trop peu, ou alors l’échelle de temps de la variabilité multi-décennale dans l'Atlantique Nord pourrait varier de 20 à 60 ans par exemple). Les conclusions sur l'ampleur des changements forcés doivent être robustes par rapport à ces différentes estimations.


Alors, comment cela pourrait-il se faire en pratique ? Prenez l'impact de l'éruption du Pinatubo en 1991. L'examen de l'enregistrement de la température au cours de cette période montre un léger refroidissement, avec un pic en 1992-1993, mais ces températures ne sont certainement pas sans précédent, pas plus qu'ils ne dépassent les limites de la variabilité observée, mais il est bien accepté que le refroidissement est attribuable à l'éruption.


Pourquoi ? Tout d'abord, il y a eu un changement bien observé dans la composition de l'atmosphère (une couche d'aérosols sulfatés dans la basse stratosphère). Tous les modèles, depuis les codes unidimensionnels de transfert radiatif jusqu’aux MCG, suggèrent que ces aérosols ont suffi pour modifier le bilan énergétique planétaire et provoquer un refroidissement global de la moyenne annuelle des températures à la surface.

 

Ils suggèrent également que la réponse aurait une structure spatiale complexe - réchauffement local dans la basse stratosphère, augmentations derayonnement solaire réfléchi, diminution de rayonnement ondes longues sortant, changements dynamiques de la circulation d’hiver de l'hémisphère Nord, diminution des précipitations tropicales, etc. Ces modifications ont été observées dans le monde réel, et avec des amplitudes très similaires à celles prédites. En effet, beaucoup de ces changements ont été prédits par les modèles de circulation générale avant qu'ils aient pu être observés.


Je vais laisser en exercice pour le lecteur le soin d'appliquer le même raisonnement aux changements liés à l'augmentation des gaz à effet de serre, mais pour ceux que cela intéresse le chapitre pertinent du rapport du GIEC vaut la peine d’être lu, comme le sont quelques récentes communications de Santer et ses collègues.


http://www.futura-sciences.com/typo3temp/pics/2d5c6e8edd.jpg
Tendance des températures mesurées dans les canaux TLT et TLS des sondeurs de température MSU (Microwave Sounding Unit) et AMSU (Advanced Microwave Sounding Unit). Le refroidissement de la stratosphère (canal TLS, en bas) et le réchauffement de la basse troposphère (canal TLT, en haut) sont une signature de l'augmentation de l'effet de serre.
Source : futura-sciences, Gavin Schmidt (traduction de Yves Fouquart)

 

Partager cet article
Repost0
10 juin 2010 4 10 /06 /juin /2010 10:46
Invasion d’insectes dans nos assiettes, une tendance culinaire bien réelle
Invasion d’insectes dans nos assiettes, une tendance culinaire bie...

Rien qu’à cette idée, certains d’entre nous en frémissent déjà. Pourtant il semblerait que leur consommation fait de plus en plus de curieux et d’adeptes.


Criquets, grillons et autres larves s’apprêteraient à envahir bientôt nos assiettes à en croire les spécialistes.
En effet les insectes, du fait de leur haute teneur en protéines, pourraient aisément remplacer la viande et le poisson dans la plupart des recettes usuelles. Il est d'ailleurs bon de savoir qu’à quantité équivalente, une consommation régulière de grillons par exemple représenterait deux fois moins de calories et de matière grasse que 100 grammes de steak hâché.

Si cette pratique est peu habituelle par chez nous, l’entomophagie (du nom qui désigne la consommation d’insectes) est pourtant répandue dans plus de 90 pays et 3000 ethnies la pratiqueraient déjà de par le monde. Paëlla aux grillons, raviolis aux criquets ou encore ragoût de sauterelles : comme on peut le voir les idées ne manquent pas pour cuisiner ces charmantes petites bêtes à toutes les sauces.
Il existe en effet de multiples manières de les cuisiner, des recettes salées ou sucrées, c’est selon les goûts. D’autres, plus téméraires, préfèreront mêmes les consommer "nature", c’est à dire… vivants ! 

Quoi qu’il en soit, préférez toujours les insectes frais provenant d'un environnement parfaitement naturel et sain.
Bien qu'elles nous semblent farfelues, ces nouvelles explorations gastronomiques mériteraient qu’on y goûte au moins une fois. Alors à quand les insectes en vente dans nos supermarchés ?
Source : Zigonet
Partager cet article
Repost0
10 juin 2010 4 10 /06 /juin /2010 10:43
Ou comment provoquer de la consommation par les usagers.....!

94,5 % de la population

À 19 h, « 62 émetteurs sur 66 » étaient relancés, confirme le CSA, devant les grands tableaux de bord du quartier général de Rennes. « Ce qui représente, déjà, un taux de couverture de 94,5 % de la population bretonne. » Quatre émetteurs étaient encore en cours de redémarrage, hier soir : à Belle-Île-en-Terre et Plérin (Côtes-d'Armor), ainsi que Vitré (Ille-et-Vilaine) et Guer (Morbihan). Deux problèmes techniques « mineurs » ont par ailleurs été constatés, l'un sur l'émetteur de Roc'h Trédudon vers Brest, l'autre à Lannion. Deux camions de mesure ont été envoyés à Perros-Guirec pour vérifier les puissances d'émission. Mais « aucun cas de brouillage ne nous a été, jusqu'à présent, remonté. »

 

Côté réception, Olivier Gerolami, directeur général de France Télé Numérique, pointe un retard à l'allumage pour le centre d'appels (1), en début de matinée, « mais à 10 h 30, tout était rentré dans l'ordre. La durée d'attente se limite désormais à 45 secondes. » Environ 14 000 appels de téléspectateurs demandant de l'aide avaient été prévus, « on sera plus près de 15 000 ».

 

Prêts pour le Mondial

 

Une bonne moitié de ces appels se limitent à une demande de conseil, mais 25 % requièrent une véritable assistance technique : « 832 rendez-vous ont été pris, dans un délai moyen est de deux jours », grâce au partenariat avec La Poste, 300 facteurs sont mobilisés. « Soit largement à temps pour le match de vendredi soir, résume Nathalie Kosciusko-Morizet. Pas question de rater ce rendez-vous, on surveille la Bretagne comme du lait sur le feu... »

 

D'ailleurs, si tout s'est globalement bien passé, hier, « la vigilance » va rester de mise toute cette semaine. Pour surveiller l'ensemble des émetteurs, ajuster ici ou là des réglages. Et continuer à conseiller les téléspectateurs bretons qui en ont besoin.

 

 

Source : Ouest-France, Christophe VIOLETTE.

Partager cet article
Repost0
8 juin 2010 2 08 /06 /juin /2010 23:23

 

Le moustique-tigre, ou Aedes albopictus, originaire d’Asie, commence à se propager en France métropolitaine, où il a été repéré dernièrement à Marseille. Puisque cet insecte peut être porteur demaladies exotiques, dont le chikungunya, le ministère de la Santé a mis en place un dispositif pour éviter la propagation de ce moustique.


Le moustique-tigre, appelé ainsi en raison des rayures qu’il porte sur sonabdomen, a pour origine l’Asie du Sud-Est, mais commence à se plaire sur notre territoire méditerranéen. Depuis 2004, il a progressivement envahi les Alpes-Maritimes, la Corse et le Var. Très récemment, sa présence a également été signalée à Marseille, ajoutant les Bouches-du-Rhône aux départements touchés.


Ce moustique particulièrement agressif provoque des piqûres perceptibles par la victime, qui aura tendance à interrompre le repas sanguin de l’insecte. Celui-ci peut alors piquer plusieurs fois et ainsi augmenter les risques de prélever un agent pathogène, qu’il pourra alors retransmettre lors de son prochain repas. De plus, bien qu’il soit principalement anthropophile (il s’attaque aux hommes), ce moustique opportuniste peut également s’attaquer aux animaux, et ainsi transmettre des maladies entre espèces.


Vecteur du chikungunya


Aedes albopictus est alors considéré comme un vecteur de maladies. Lespathologies transmissibles à l’homme recensées pour ce moustique sont principalement le chikungunya et la dengue, deux pathologies provoquées par des virus.


Le chikungunya a fait beaucoup parler de lui en France dès 2005, par son nombre important de victimes sur l’île de La Réunion (270.000 personnes infectées sur 750.000 habitants).

 

La maladie se caractérise par une polyarthrite aiguë fébrile, où les petites articulations sont principalement touchées. Les symptômes apparaissent après 4 à 7 jours d’incubation, associés à de la fièvre, des maux de tête, et des douleurs musculaires.

 

Si pour certains la maladie évolue vers un stade chronique, l’évolution vers laguérison est généralement sans conséquences.

http://www.futura-sciences.com/uploads/RTEmagicC_chikungunya-dengue-sud-france_INPES.jpg.jpg
Plaquette récapitulative des précautions à prendre dans la lutte contre le chikungunya dans le sud de la France, selon le Ministère de la Santé et l'INPES.


La lutte contre ce moustique est l’affaire de tous


Alors que l’épidémie de chikungunya reprend sur l’île de La Réunion, le ministère de la Santé rappelle que pour l’heure aucun cas de chikungunya n’a été déclaré en France métropolitaine. Il a toutefois décidé de mettre en place un dispositif visant à éviter l’apparition de la maladie.

Tout d’abord une surveillance entomologique est activée afin de réagir face à l’implantation du moustique-tigre sur notre territoire. De plus, les voyageurs suspectés d’être infectés devront subir une démoustication pour éviter la contamination d’autres personnes. Enfin, la population des zones colonisées par Aedes albopictus seront sensibilisées afin de lutter au maximum contre sa multiplication, en détruisant « autour et dans leur habitat les gîtes potentiels de reproduction des moustiques ».


Concrètement, dans les zones concernées, il est préconisé d’éviter de laisser des eaux stagnantes (soucoupe de pot de fleur, pneu usagé…). En effet, c'est là que ce moustique aime pondre ses œufs et, devenu adulte, l'insecte ne s'éloigne guère de son lieu de naissance (quelques centaines de mètres tout au plus). Ces mesures sanitaires prises par chacun peuvent donc avoir de notables effets...


Le ministère conseille également de consulter son médecin en cas de fièvre brutale associée à des douleurs articulaires, spécialement au retour d’un voyage en zone tropicale, et de porter des vêtements couvrant au maximum la peau pour éviter les piqûres.


http://www.futura-sciences.com/typo3temp/pics/8659076414.jpg
Aedes albopictus, ce moustique rayé capable de transmettre des maladies tropicales est arrivé à Marseille. © James Gathany - Centers for Disease Control and Prevention (domaine public)

Source : futura-sciences

 

Partager cet article
Repost0
8 juin 2010 2 08 /06 /juin /2010 23:10

 

Les vacances arrivent à grand pas, les examens de fin d'année aussi ! Il faudra trouver un peu de temps pour observer les Bootides de juin, mais aussi un beau rapprochement entre Mars et Régulus,Vénus qui traverse l'amas de la Crèche,


Un bel alignement deplanètes, et une éclipse de Lune malheureusement invisible en Europe. Tout un programme...



 

L'édito du mois

Les vacances arrivent à grand pas, les examens de fin d'année aussi ! Il faudra trouver un peu de temps pour observer les Bootides de juin, mais aussi un beau rapprochement entre Mars et Régulus, Vénus qui traverse l'amas de la Crèche, un bel alignement de planètes, et une éclipse de Lune malheureusement invisible en Europe. Tout un programme...


Les évènements à retenir

La planète Mars est en rapprochement avec l'étoile Régulus

Maximum de l'essaim météoritique des Bootides de juin

Les planètes Saturne, Mars et Vénus et l'étoile Régulus forment un alignement dans le ciel

Note :

Toutes les heures sont données en Temps Universel (TU). Pour obtenir l'heure légale en France, en hiver rajoutez une heure, en été rajoutez deux heures.

Sur les illustrations, les heures sont données en heure locale pour Paris, Bruxelles, Copenhague, et Madrid.


 

 

 

 

 

 

 

 

 

 

Partager cet article
Repost0
8 juin 2010 2 08 /06 /juin /2010 23:06

 

Jakarta, Indonésie – Un récent recensement mené en Indonésie depuis plusieurs semaines aurait permis de mettre en avant une femme qui dit être âgée de 157 ans.

 

                                                              http://d.yimg.com/i/ng/ne/zigonet/20100608/08/2619287714-indonesie-une-femme-serait-agee-de-157-ans.jpg?x=204&y=232&q=75&sig=q01mt05rOC.YMOfNxr1pvw--#204,232

L’âge avancé par cette vieille dame semble complétement improbable, notamment du fait que l’être humain ayant eu la vie la plus longue serait Jeanne Calment, disparue à 122 ans. Pourtant, l’hypothèse est probable pour les autorités, en témoignent les dires de Johnny Sardjono, responsable des services de recensement, à l’AFP : "Il n'y a pas de documents authentiques pour prouver son âge mais sur la base de ses déclarations et en prenant en compte l'âge de sa fille adoptive, qui a 108 ans, il est difficile d'en douter."


Cette femme appelée Turinah habite toujours dans une maison dont elle s’occupe et fume des cigarettes aux clous de girofles.

 

Le responsable du recrutement explique même : "Malgré son âge, elle conserve une excellente mémoire, une bonne vue et n'a pas de problème d'audition.

Elle parle néerlandais presque couramment."

 

Quant aux papiers d’identité absents de la vieille dame, elle a expliqué les avoir brûlés en 1965 afin d’éviter d’être liée aux communistes, largement tués à cette époque.

 

Source : Zigonet

 

Partager cet article
Repost0
8 juin 2010 2 08 /06 /juin /2010 23:04

Deux anomalies dans l’atmosphère de cette lune de Saturne pourraient indiquer l’existence d’un phénomène biologique affirment des astronomes dans deux articles parus simultanément.

  • Agrandir la fonteRétrécir la fonte
  • Imprimer
  • Envoyer
  • Traduire
  • Réagir
A la surface de Titan, il existe peut-être des créatures qui respirent de l'hydrogène et consomment de l'acétylène. (Credit: NASA / JPL)A la surface de Titan, il existe peut-être des créatures qui respirent de l'hydrogène et consomment de l'acétylène. (Credit: NASA / JPL)

Pas d’acétylène et de l’hydrogène qui disparaît près de la surface…ces deux particularités révélées par la sonde Cassini ont mis en émoi le (tout petit) monde des astrobiologistes. Elles pourraient en effet révéler l’existence d’une forme de vie sur Titan, le plus grand satellite de Saturne. Bien différente de celle qui existe sur Terre, il s’agirait de microbes exotiques avec un métabolisme basé sur le méthane.

Des tels êtres sont le fruit des réflexions de Chris McKay, de la NASA et de Heather R Smith, de l'International Space University à Strasbourg, qui ont émis l’hypothèse, en 2005, que des organismes pourraient peupler les vastes lacs d’hydrocarbures situés près des pôles du satellite. Selon, ces microbes respireraient non pas de l’oxygène mais de l’hydrogène et tireraient une grande partie de leur énergie de la consommation de molécules d’acétylène. Cela se traduirait par un manque d'acétylène sur Titan et un appauvrissement de la couche d'hydrogène près de la surface de la lune, où les microbes pourraient vivre, précisaient-ils. 

Exactement ce qu’a détecté la sonde Cassini qui orbite autour de Saturne et de ses lunes depuis 2004 maintenant. D’où l’effervescence qui anime certains spécialistes de la vie extraterrestre. Les spectres infrarouges de la surface de Titan réalisée par le VIMS (Visible infrarouge Mapping Spectrometer) n’ont en effet pas révélé de traces d’acétylène qui devrait normalement être produit en continu lorsque les rayons ultraviolets du Soleil frappent l’épaisse atmosphère du satellite. L'étude VIMS, dirigé par Roger Clark, de l'US Geological Survey, à Denver, Colorado, paraîtra dans le 
Journal of Geophysical Research. D’autres mesures de Cassini, qui seront publiées dans la revue Icarus par Darrell Strobel de l'Université Johns Hopkins à Baltimore, Maryland, suggèrent que l’hydrogène disparaît près de la surface de Titan.

Autant d’arguments en faveur de l’existence possible d’une forme de vie sur Titan. Mais comme le fait remarquer Mark Allen du Jet Propulsion Laboratory de la NASA : « l’explication biologique ne peut être que le dernier choix après que toutes les hypothèses non biologiques aient été écartées. » Sauf que pour pouvoir éliminer certaines possibilités, comme la production de glace d’acétylène dans l’atmosphère rendant indétectable cet élément à la surface du sol, il faut organiser une nouvelle mission d’exploration ou attendre un nouveau survol de Titan par la sonde Cassini.

J.I.
Sciencesetavenir.com

Partager cet article
Repost0
8 juin 2010 2 08 /06 /juin /2010 23:02
Le commandant des garde-côtes, l'amiral Thad Allen, le 7 juin 2010 à Washington (Photo Yuri Gripas/AFP)

Lundi 07 juin 2010, 22h20
L'impact économique et écologique de la marée noire se fera sentir "des années" dans le golfe du Mexique, ont averti lundi les autorités américaines, même si davantage de pétrole était désormais récupéré du puits de pétrole percé au fond de la mer.

Le président Barack Obama a estimé que l'impact économique de la catastrophe serait "substantiel et durable" pour les régions côtières du Sud des Etats-Unis après l'explosion et le naufrage d'une plateforme pétrolière en avril à 80 km au large.

Evoquant le drame que vivent les pêcheurs, ostréiculteurs et autres corps de métier vivant des ressources naturelles, M. Obama a une nouvelle fois requis de BP, le géant britannique, qui exploitait la plateforme, qu'il ne "mégote pas" son aide financière.

"Cela va prendre du temps, va requérir énormément d'efforts (...) mais je suis absolument certain que nous allons sortir de cette crise, comme nous avons triomphé d'autres", a-t-il dit, en promettant que le gouvernement se tiendrait aux côtés des sinistrés.

Mais dans l'immédiat, la pollution est devenue plus difficile à maîtriser, a souligné le commandant des gardes-côtes, l'amiral Thad Allen, avant de participer à une réunion à la Maison Blanche avec M. Obama.

La fuite de brut filmée par BP, le 7 juin 2010 (Photo /AFP)

"Nous ne devons plus lutter contre des grandes nappes uniformes. Il y a des traces de brut qui vont dans de nombreuses directions", a reconnu l'amiral, principal responsable de la lutte contre la marée noire.

Et les perspectives à long terme ne sont pas plus riantes, en particulier pour la nature, a-t-il estimé. Si environ 200 km de côtes ont été touchées par du pétrole, ces chiffres peuvent être "trompeurs", car certaines sont des zones marécageuses fragiles qui ont pu être souillées en profondeur.

Et une fois le puits colmaté, "s'occuper du pétrole en surface prendra quelques mois. Après cela, ce sera réglé. Restaurer les écosystèmes, les habitats (de la faune) prendra des années", a indiqué l'amiral Allen.

BP a cependant accéléré la récupération du pétrole qui continue à s'échapper du puits.

Ces dernières 24 heures, "nous sommes passés de 6.000 à 11.000" barils pompés (soit quelque 1,75 million de litres) grâce à un entonnoir géant installé sur le puits, a déclaré l'amiral.

Thad Allen a dit espérer porter la capacité de récupération de pétrole à 20.000 barils par jour une fois que BP aura acheminé des équipements adéquats sur place. Mais il s'est dit incapable d'évaluer dans l'immédiat le rythme auquel le brut s'est déversé depuis le début de la catastrophe.

Jusqu'ici, les autorités ont donné deux fourchettes possibles: "l'une de 12.000 à 19.000 barils par jour, l'autre de 12.000 à 25.000 barils", a rappelé l'amiral Allen.

L'entonnoir posé jeudi comporte quatre soupapes qui doivent éviter que des cristaux ne se forment à l'intérieur. Ces soupapes, par lesquelles fuit toujours du pétrole, doivent être fermées progressivement.

L'installation de cet entonnoir n'est qu'une solution provisoire, le temps que BP creuse deux puits de dérivation qui serviront à boucher le puits principal, des opérations dont l'amiral Allen a dit espérer qu'elles seraient terminées début août.

En attendant, les Américains jugent sévèrement la réaction de leurs dirigeants face à la marée noire. Selon un sondage ABC News/Washington Post, 69% des personnes interrogées ont une mauvaise opinion de la gestion de la crise par l'administration Obama. Quant à BP, sa réaction est jugée négativement par 81% des sondés.


Source :  linternaute

Partager cet article
Repost0
5 juin 2010 6 05 /06 /juin /2010 16:25



Le rover Spirit a découvert des roches carbonatées sur Mars, une denrée très recherchée: ce n'est pas encore un coin de paradis mais le signe que des conditions favorables à la vie ont existé. 

 

L'affleurement Comanche où Spirit a repéré des carbonates. (NASA/JPL/Cornell University)


Grâce au robot explorateur Spirit, on a peut-être identifié un petit coin de la planète Mars où il faisait bon vivre… il y a longtemps. Du moins un endroit où il y avait de l’eau, une eau favorable au développement de formes de vie. 

Des carbonates ont en effet été découverts dans les analyses de roches réalisées par Spirit sur un affleurement appelé Comanche, sur les Columbia Hills, près du cratère Gusev.

Un milieu favorable à la vie

Les roches carbonatées sont recherchées depuis longtemps sur la planète Mars. Les carbonates se forment lorsque des roches volcaniques sont baignées par de l’eau et du gaz carbonique. Si l’eau est acide, les carbonates de dissolvent. 

Leur présence est donc une preuve de l’existence d’un milieu neutre, plus favorable à l’apparition de la vie que les eaux acides dont Opportunity a retrouvé la trace sur Meridiani Planum. 

La sonde américaine Mars Reconnaissance Orbiter a repéré pour la première fois une quantité significative de carbonates l’année dernière, trahissant la présence passée de poches d’eau non acide dans la cuvette de Nili Fossae. 

Dépoussiérer l'instrument 

En analysant les données envoyées par Spirit fin 2005, Richard Morris (University State of Arizona) et ses collègues ont découvert des roches contenant en moyenne 25% de carbonates (intervalle de 16 à 34%), ce qui est beaucoup plus que pour les précédentes observations. 

Il aura fallu beaucoup de temps aux scientifiques pour tirer profit des analyses de l’affleurement Comanche. 

En effet, les données obtenues avec trois instruments de Spirit étaient peu lisibles. L’un des instruments, le Mini-TES (spectromètre d’émission thermique), avait été recouvert de poussières lors d’une tempête martienne. 

Les chercheurs ont du mettre au point une méthode pour "dépoussiérer" les données avant de conclure qu’ils avaient bien sous les yeux des carbonates de magnésium et de fer. 

Ces travaux sont publiés aujourd’hui sur le site de la revue Science (Science Express). 

Le robot Spirit en train d'étudier l'affleurement Comanche. (NASA/JPL/Cornell University) 

Ces découvertes ne sont qu’une étape. Il reste à découvrir l’ampleur des formations de carbonates sur Mars. Pour l’instant leur étendue est modeste et ne témoigne pas de la présence passée d’un vaste océan sur la planète Mars, comme l’ont proposé certains scientifiques. 
Cécile Dumas (Sciences et avenir.fr)
Partager cet article
Repost0

Présentation

  • : Miss Maou et son Antre de l'Occulte
  • : Philosophie de Vie et développement personnel. Ce blog a pour but le partage, la publication de l'actualité dont on ne parle pas au 20h, l'échange sur l'Esotérisme, mes conseils, mes écrits et accessoirement ma Vie. Bienvenue à tous,
  • Contact

Recherche