KrISS feed 8.7 - Ein einfacher und schlauer (oder dummer) Feed-Reader. Von Tontof
  • Friday 20 July 2018 - 17:01

    La vidéo du jour nous parle d’astrophysique, et des processus étranges qui se déroulent au sein des étoiles !

    Et comme de coutume, c’est parti pour des compléments !

    Les nuages de gaz

    Comme je l’évoque dans la vidéo, il y aurait plein de choses à dire sur la manière dont les nuages de gaz se répartissent dans l’Univers, et plus généralement les galaxies et la structure à grande échelle de l’Univers. C’est une question vraiment fascinante et contre-intuitive, je ferai une vidéo sur le sujet, c’est promis !

    Si on se focalise sur le nuage lui-même, une question naturelle qu’on peut se poser c’est le temps qu’il met à s’effondrer sous son propre poids. Si on ne considère que la gravité, l’analyse dimensionnelle vient à notre secours puisque si on considère un nuage de densité \rho (oui je sais, je dis sans cesse densité pour « masse volumique »), la seule manière de fabriquer un temps avec ce qu’on a comme constante, à savoir la constante de Newton G, c’est d’écrire

    \tau = \frac{1}{\sqrt{G\rho}}

    C’est le temps de « chute libre » du nuage. En réalité c’est plus compliqué que ça, puisque quand le nuage s’échauffe, la pression rentre en ligne de compte.

    J’en profite pour préciser un truc sur lequel je suis passé vite : ce qui est important dans l’affaire c’est qu’il y ait des gradients de température, et donc de pression, car ce sont les gradients qui assurent l’existence d’une force pour contrebalancer la gravité (même si la pression est très élevée : pas de gradient de pression, pas de force !)

    Un point intéressant à noter, c’est que quand on prend en compte tous les phénomènes, un nuage doit posséder une masse critique pour commencer à s’effondrer (c’est le phénomène d’instabilité de Jeans), et la masse critique est en général bien plus élevée que la masse d’une étoile seule. Et un nuage se fragmentera ensuite pour donner naissances à plusieurs étoiles.

    Un dernier détail que je n’ai pas mentionné dans la naissance des étoiles, il existe un moment juste avant la séquence principale où une étoile peut commencer à s’allumer en fusionnant son deuterium disponible.

    La fusion

    Concernant le mécanisme de la fusion elle-même, je ne vais pas m’attarder car la vidéo de « J’m’énerve pas j’explique » présente très bien les choses. Et notamment le fait que la barrière coulombienne à franchir (pour que deux protons chargés acceptent de s’embrasser) est d’environ 1MeV alors que l’énergie thermique typique kT n’est que d’environ 1keV, même à 15 millions de K ! Et c’est là que l’effet tunnel nous sauve la mise.

    Une subtilité : pour des raisons énergétiques, la désintégration bêta+ qui transforme un proton en neutron n’est possible qu’au sein d’un noyau comme celui formé par la fusion de deux protons. Heureusement car sinon les protons seuls ne seraient pas stable et les atomes d’hydrogène se désintègreraient ! Il y a d’ailleurs des arguments du « principe anthropique » assez amusants qui expliquent que si les interactions fondamentales étaient très légèrement différentes, les « diprotons » seraient stables, et tout l’hydrogène de l’Univers aurait assez rapidement fusionné en diprotons, empêchant l’apparition des étoiles, et donc de la vie.

    Dans la vidéo, je n’ai pas tellement évoqué les routes alternatives pour faire de la fusion. Déjà dans la chaîne proton-proton, il y a des variantes, dont les probabilités sont représentées sur ce diagramme

    (source)

    En plus de cela, dans certaines étoiles, ça n’est pas la chaine proton-proton qui est dominante, mais le mécanisme dit « CNO », car il passe par des noyaux de carbone C, d’azote N et d’oxygène O pour réaliser la fusion de l’helium.

    C’est une réaction que je trouve très belle car on y voit que le carbone joue vraiment un rôle de catalyseur : comme en chimie il facilite la réaction en abaissant la barrière énergétique, mais il n’est pas consommé et il est restitué à la fin de la réaction !

    Il y a ce joli graphique qui montre la trajectoire des étoiles dans un diagramme densité/température, avec les courbes correspondant aux différentes réactions de fusion (pp, CNO, triple-alpha…), et les trajectoires que suivent les étoiles dans ce diagramme en fonction de leur masse (en rouge)

    (source : le cours de Gary Glatzmaier dont je me suis pas mal servi pour préparer l’épisode) Quand la trajectoire pour une masse donnée croise une courbe de fusion, la fusion démarre et l’étoile reste à ce point jusqu’à ce que le combustible soit épuisé. On voit qu’une étoile d’1 masse solaire s’effondre en remontant la diagonale, croise la courbe de fusion pp, reste un moment à l’intersection, puis reprend sa montée pour croiser la courbe triple alpha avant de dégénérer. Mais on voit que pour les étoiles massives (par ex ici 10 masses solaires), on franchit la courbe de fusion CNO et pas de la chaîne pp.

    Structure stellaire

    Sur la structure des étoiles, j’ai totalement passé sous silence le mode de transport de la chaleur…qui est pourtant essentiel puisque le transport de la chaleur est liée aux gradients de température, qui sont à l’origine des forces de pression essentielles à la stabilité.

    De façon amusante, le mode dominant d’évacuation de la chaleur du coeur vers les couches externes dépend de la masse de l’étoile. Pour une étoile massive, c’est la convection qui domine dans le noyau, et le rayonnement dans les couches externes; alors que pour une étoile comme le soleil c’est l’inverse (radiation au centre, convection autour). Pour une étoile très peu massive, il semblerait qu’on ait de la convection partout. (source)

    Un petit calcul amusant : on peut estimer à la grosse louche la température au centre d’une étoile en imaginant qu’un proton qui « tombe » du bord au centre de l’étoile aura une énergie thermique de l’ordre de grandeur de l’énergie potentielle gravitationnelle, et donc en écrivant

    (3/2) kT = GmM/R

    où m est la masse du proton, M celle de l’étoile et R son rayon. On trouve alors pour le soleil dans les 15 millions de K !

    Le diagramme HR

    En ce qui concerne le diagramme HR, j’ai évidemment zappé plein de trucs. On peut par exemple mentionner les étoiles variables comme les Céphéides, qui pulsent en luminosité. Ces étoiles sont essentielles car leur période de pulsation est liée à leur luminosité, et connaissant leur luminosité apparente on peut déduire leur distance. C’est un des moyens de mesurer des distances absolues dans l’Univers.

    Comme je l’ai dit, je suis aussi passé très vite sur les destins possibles après la séquence principale. Car les détails sont importants (notamment la masse ou la composition de l’étoile) et tout n’est pas encore bien connu. Donc pour les supernovas et autres objets exotiques, ce sera pour une autre fois !

  • Friday 13 April 2018 - 17:01

    La vidéo du jour nous parle de ce qui est considéré (par certains) comme la plus belle expérience de toute l’histoire de la physique !

    Evidemment il faut que je clarifie 2 ou 3 trucs concernant l’histoire de cette expérience (ou plutôt de cette famille d’expériences) et pourquoi dès les années 60, Richard Feynman se permettait d’en parler alors qu’elle n’avait pas encore été faite.

    Comme je le dis dans la vidéo, tout commence avec la mise en évidence de l’électron en 1897 par JJ Thomson (qui n’est pas le William Thomson / Lord Kelvin !) . Ce dernier utilise un tube cathodique, dont le principe était connu depuis une vingtaine d’années. Dans ce tube, il crée en sus un champ électrique et un champ magnétique qui lui permettent de dévier les électrons sur l’écran.

    Comme la déflexion dépend à la fois du champ électrique E et du champ magnétique B, on peut par exemple chercher des valeurs des champs pour lesquels la déflexion est nulle (l’effet des deux champs se compense). C’est ainsi que Thomson calcule le ratio de la charge électrique et de la masse de l’électron. Il ne peut pas calculer séparément l’un et l’autre, et il faudra attendre l’expérience de Millikan en 1909 pour déterminer la charge de l’électron, et donc sa masse grâce au ratio trouvé par Thomson.

    A ce stade de l’histoire, l’électron est donc une particule. L’expérience qui changera tout est celle de Davison et Germer en 1927. Ces derniers balancent des électrons sur une cible en nickel (un cristal, donc) et obtiennent des interférences. Cela montre de façon décisive que les électrons se comportent comme une onde. On appelle parfois ce résultat « la diffraction » des électrons, mais il s’agit aussi d’interférences. Pour faire simple, cela se passe comme si chaque atome du cristal de nickel se comportait comme une mini-fente.

    Dès cette expérience réalisée, on pouvait donc prédire que si on s’amusait à balancer des électrons sur une double fente, il se passerait la même chose qu’avec la lumière : des interférences.

    Il fallut attendre 1961 pour que l’allemand C. Jonsson réalise vraiment une expérience de diffraction/interférences d’électrons  avec des fentes.  La publication originale était en allemand, mais ci-dessous je vous mets les références de la traduction parue en 1974, et une figure issue du papier

    Jonsson, C. (1974). Electron diffraction at multiple slits. Am. J. Phys, 42(1), 4-11.

    Vous voyez qu’au début des années 60, à l’époque où Feynman faisait son cours à Caltech, on avait tout juste réalisé une expérience d’interférences d’électrons avec une double fente. Mais il ne s’agissait en aucun cas d’une expérience où les électrons étaient envoyés un par un ! (ce qui est quand même le cas qui déchire)

    Il faut attendre 1976 et une publication italienne pour véritablement visualiser des électrons individuels dans une figure d’interférence, même s’il ne s’agit pas d’une construction progressive puisque chacune des images ci-dessous correspond à une expérience effectuée avec des paramètres différents.

    Merli, P. G., Missiroli, G. F., & Pozzi, G. (1976). On the statistical aspect of electron interference phenomena. Am. J. Phys, 44(3), 306-307.

    Ensuite il faut encore patienter jusqu’en 1989 et le travail d’une équipe japonaise pour avoir véritablement une construction progressive sur une même expérience

    Tonomura, A., Endo, J., Matsuda, T., Kawasaki, T., & Ezawa, H. (1989). Demonstration of single-electron buildup of an interference pattern. Am. J. Phys, 57(2), 117-120.

     

     

     

     

     

     

     

     

     

     

    Cette expérience a longtemps été considérée comme « la vraie », et pourtant elle diffère de ce que raconte Feynman en deux points : tout d’abord il ne s’agit pas d’une expérience avec une double fente mais avec un « biprisme »; et ensuite une conséquence de cela est qu’il n’est pas possible de jouer à boucher une fente pour voir comment la figure change.

    C’est donc seulement en 2013 qu’un groupe américain arrive à faire véritablement l’expérience comme l’imaginait Feynman, à la fois avec la construction progressive de la figure d’interférences et la possibilité de boucher une des deux fentes.

    Les films montrant les constructions des figures sont disponibles dans les Supplementary Data de la publication.

    Bach, R., Pope, D., Liou, S. H., & Batelaan, H. (2013). Controlled double-slit electron diffraction. New Journal of Physics, 15(3), 033018.

    Les plus observateurs d’entre vous auront remarqué que dans la vidéo, toutes les constructions progressives que je montre sont des simulations et pas les vrais films, juste pour la clarté de l’exposé. Je montre juste le « vrai » film à la toute fin.

    Un point tout de même : quand on y regarde bien, l’expérience de 2013 n’est pas encore exactement celle dont parlait Feynman. En effet elle ne permet pas vraiment de faire le cas où un détecteur intermédiaire vient essayer de savoir par quelle fente passe l’électron. Les expériences de ce type sont dites « which-way » (par quelle chemin ?). Elles ne sont pas faite sur exactement le type de dispositif expérimental dont on vient de parler, comme par exemple la publi suivante où l’on utilise des atomes qui interfèrent, et où les auteurs ont pu mettre en évidence la destruction des franges d’interférences.

    Dürr, S., Nonn, T., & Rempe, G. (1998). Origin of quantum-mechanical complementarity probed by a ‘which-way’experiment in an atom interferometer. Nature, 395(6697), 33.

     

     

     

  • Friday 16 March 2018 - 17:25

    Nouvelle épisode de « Crétin de Cerveau », toujours inspiré par les travaux du grand Daniel Kahneman : que retient-on de nos vécus heureux et douloureux ?

  • Friday 16 February 2018 - 17:01

    Le sujet du jour est un grand classique, l’une des découvertes majeures du XXe siècle : la théorie du chaos.

    On pourrait écrire tout un bouquin sur le sujet — et d’ailleurs il y en a, cf J.Gleick ou I.Stewart — alors je ne vais pas chercher dans ce billet à compléter tout ce que je n’ai pas dit dans la vidéo, mais au moins à pointer vers quelques pistes ou résultats intéressants.

    Edit : tous les codes Python des simulations sont là : https://github.com/scienceetonnante/Chaos

    L’étude des systèmes dynamiques

    Commençons par un peu de formalisme pour bien poser le cadre mathématique dans lequel on étudie les systèmes dynamiques dont on a parlé. Nous en avons vu deux types dans la vidéo : les systèmes en temps continu (pendule, planètes, équations de Lorenz…) et les systèmes en temps discret (transformation logistique, de Hénon…).

    Pour les systèmes en temps discret, le jeu est relativement simple. On a des variables qui décrivent l’état du système. Et pour passer au pas de temps suivant, on applique une transformation qui agit sur ces variables.

    Pour les systèmes en temps continu, c’est plus subtil. Imaginons que l’on ait un certain nombre N de variables numériques décrivant l’état de notre système à un instant donné : x_1, x_2, x_3...x_N. On peut regrouper toutes ces variables en un vecteur \vec{X} de dimension N (dans la suite, je vais laisser tomber les flèches).

    L’espace des états possible (l’espace dans lequel X prend ses valeurs) est appelé espace des phases. On reviendra sur ce terme. Pour schématiser on va dire que l’espace des phases est \mathbb{R}^N, mais on peut très bien avoir des variables qui varient sur un domaine plus restreint.

    On considère pour X une équation d’évolution de la forme

    \frac{dX}{dt} = F(X(t))

    Ceci est une équation différentielle du 1er ordre, et dans cette expression F est une fonction de \mathbb{R}^N vers \mathbb{R}^N.

    Toute l’évolution du système est contenue dans cette fonction F. Si on sait calculer F, on peut simuler numériquement l’évolution du système en choisissant un intervalle de temps très petit \Delta t, et en calculant l’évolution \Delta X des variables X par

    \Delta X = F(X) \Delta t.

    C’est comme ça que j’ai fait toutes les simulations du système de Lorenz (et que lui avait fait à l’époque sur son LGP-30 !)

    Autre représentation alternative de F, la voir comme un champ de vecteurs. F nous donne l’évolution de X en renvoyant un vecteur en chaque point de l’espace des phases. Et donc l’intégralité de l’information contenue dans F peut se retrouver dans une représentation graphique sous forme d’un champ de vecteur sur l’espace des phases, un truc du genre :

    Pour calculer une trajectoire à partir d’un point de l’espace des phases dans ce champ de vecteur, c’est en principe très simple : on suit les flèches ! « Suivre les flèches » est la version graphique de la méthode de calcul que j’ai présentée ci-dessus, où on fait une simulation par petits intervalles de temps discret. On dit dans les deux cas qu’on intègre la trajectoire.

    Une précision importante : j’ai parlé dans ma vidéo de systèmes qui ne sont pas a priori régis par une équation d’évolution du 1er ordre, mais du 2nd ordre. C’est le cas des systèmes mécaniques en général, par exemple le pendule simple

    \frac{d^2\theta}{dt^2}=-\frac{g}{L}\sin\theta

    Dans ce cas il y a une façon simple d’en faire un système du premier ordre : dédoubler les variables. Pour décrire l’état complet du pendule, et prédire son évolution, son angle \theta ne suffit pas, il nous faut aussi sa vitesse angulaire \omega, qui bien sûr est égale à la dérivée de l’angle.

    On peut donc remplacer l’équation du second ordre par les deux équations du premier ordre

    \frac{d\omega}{dt}=-\frac{g}{L}\sin\theta
    \frac{d\theta}{dt}=\omega

    On regroupe donc les 2 variables dans un vecteur, et on est bons. Pour le pendule simple, l’espace des phases est donc à 2 dimensions, et pour le pendule double, à 4 dimensions. On voit donc que l’espace des phases du système de Lorenz est d’une dimension inférieure à celui du double pendule. D’un certain point de vue, on peut dire que le système de Lorenz est un des plus « petits » systèmes continus chaotiques possibles.

    D’ailleurs c’est l’occasion de revenir sur une affirmation de la vidéo qui vous a peut-être choquée : mathématiquement, deux orbites ne peuvent jamais se croiser. Ici, on parle bien d’orbites dans l’espace des phases ! Prenons le cas d’une planète dans un champ gravitationnel : il faut 3 nombres pour décrire sa position (x,y,z), mais comme l’équation du mouvement est du second ordre, il faut 6 nombres pour l’espace des phases : aux 3 positions on doit ajouter les 3 vitesses (ou les 3 impulsions).

    Les orbites de deux planètes peuvent très bien se croiser en un même point de l’espace, mais pas de l’espace des phases ! Ce sont bien les orbites de l’espace des phases qui ne peuvent pas se croiser.

    Une façon simple de le voir : vu que l’évolution d’un point est entièrement déterminée par sa position dans l’espace des phases (en suivant le champ de vecteur), si deux trajectoires se rencontrent, elles doivent forcément suivre la même évolution par la suite (et c’est cette observation qui a donné à Lorenz l’intuition que son attracteur ne pouvait pas avoir une structure simple).

    Le modèle de Lorenz

    Tout d’abord, laissez moi mentionner l’article fondateur de Lorenz que je n’ai pas cité explicitement. Je vous le recommande car il est d’une rare profondeur. C’est incroyable qu’il soit passé inaperçu des mathématiciens pendant près de 10 ans.

    Lorenz, E. N. (1963). Deterministic nonperiodic flow. Journal of the atmospheric sciences, 20(2), 130-141.

    (Au fait, je ne l’ai pas précisé, mais ce Lorenz est évidemment différent du LorenTz de la relativité !) Pour les fans de mécanique des fluides, on peut dire un tout petit mot du système de Lorenz, que j’ai présenté dans une forme qui semble ne pas avoir grand chose à voir avec l’atmosphère.

    Pour l’origine de l’équation, on peut en gros s’imaginer qu’on part d’un modèle complet d’une couche de fluide soumis à la gravité et à un gradient de température : chaud en bas, froid en haut. Le mouvement de convection correspond à l’élévation du fluide chaud, son refroidissement, puis sa redescente.

    Il s’agit donc d’un modèle très simplifié de convection sous l’effet d’un gradient de température, comme on en a à l’intérieur de la terre, dans l’atmosphère, dans une casserole ou dans ces lampes bizarres.

    Le modèle de Lorenz s’obtient grossièrement à partir d’une équation initiale, qu’on va simplifier en ne gardant que les modes principaux. Et si on tronque à l’extrême, on se retrouve avec seulement 3 variables.

    Dans le système d’équations, la variable x représente en gros l’intensité de la convection, la variable y le gradient de température, et la variable z la « non-linéarité » du gradient, c’est-à-dire à quel point le gradient dans l’épaisseur s’éloigne d’un truc gentiment linéaire.

    Le système d’équation possède 3 paramètres, j’ai repris les valeurs numériques classiques qui figuraient dans l’article de Lorenz. \rho est en gros le nombre de Rayleigh, et on le prend suffisamment élevé pour que la convection se déclenche. Le paramètre \sigma est assimilable au nombre de Prandtl.

    Quand peut-on dire d’un système qu’il est chaotique ?

    Il n’y a pas de définition absolument unifiée de ce qui définit un système chaotique. Dans la vidéo, j’ai essentiellement suggéré qu’il s’agissait d’un système soumis à l’effet papillon…Dans la première version de la vidéo, j’ai aussi brièvement mentionné l’histoire du mélange des trajectoires, mais je l’ai finalement coupée dans le montage final, alors on va préciser.

    Pour qualifier et quantifier l’effet papillon, on utilise une définition mathématiquement plus précise : on a un système chaotique si deux points très proches initialement divergent dans le temps avec une trajectoire exponentielle. Prenons deux points x_A et x_B séparés initialement par une distance \Delta x(0) faible. Si au bout d’un temps t on a

    \Delta x(t) \sim \Delta x(0) exp(\gamma t)

    c’est que les deux trajectoires divergent avec un écart qui croit exponentiellement avec le temps (évidemment on regarde ça pour les temps pas trop long, puisque dans un système de Lorenz les trajectoires sont bornées, donc ça ne diverge pas exponentiellement jusqu’à la St-Glinglin…)

    Le coefficient \gamma décrit l’intensité de la divergence, et on l’appelle l’exposant de Lyapunov. Physiquement, il est homogène à l’inverse d’un temps, donc on peut le mettre sous une autre forme en écrivant \gamma = 1/\tau et avoir une divergence en e^{t/\tau}. Dans ce cas on appelle \tau le temps de Lyapunov, et il correspond en gros au temps au bout duquel deux trajectoires initialement proches auront bien divergé. Pour faire simple, cela est lié au temps au bout duquel on a du mal à prédire l’évolution du système (par exemple quand on dit 2-3 semaines pour la météo).

    Mais pour bien qualifier un système chaotique, cette divergence exponentielle ne suffit pas. Pour preuve, considérez le système suivant

    \frac{dx}{dt} = x(t)

    dont on connait évidemment la solution explicite :

    x(t) = e^t

    Vous pouvez vous convaincre que par construction, deux points initialement très proches vont diverger de façon exponentielle…et pourtant on peut difficilement le qualifier de système chaotique ! Pour faire la discrimination avec les « vrais » systèmes chaotiques, on peut ajouter une condition supplémentaire : celle du mélange des trajectoires. Clairement un système comme celui-là ne mélange pas les trajectoires.

    Dans la version initiale de la vidéo j’avais présenté la petite simulation suivante : on prend plein de points dans l’intervalle 0.37 \pm 10^{-9} (courbe en noir), et plein de points dans l’intervalle 0.55 \pm 10^{-9}. Si on applique successivement la fonction logistique à tous ces points, les trajectoires rouges et noires finissent par diverger et se mélanger.

    Mathématiquement, dans un système chaotique, si on prend deux petits intervalles ouverts quelconques, aussi petits qu’on veut, et qu’on simule leur évolution, au bout d’un certain temps les trajectoires seront totalement mélangées. C’est une condition qu’on ajoute, outre l’effet papillon, pour les systèmes chaotiques.

    C’est ce qu’illustre ce petit gif animé qui montre les itérations successives d’un système chaotique à partir d’un ensemble de départ.

    On trouve parfois une troisième condition : l’existence d’orbites périodiques denses. De façon remarquable, Lorenz avait déjà noté ça dans son article fondateur !

    Systèmes continus vs systèmes discrets

    En réalité les systèmes continus et les systèmes discrets ne sont pas comme deux mondes à part. On peut notamment les relier au moyen de ce qu’on appelle une section de Poincaré.

    Avant de parler de cette idée, qu’il me soit permit de dire un mot de Poincaré, qui d’une certaine manière peut être considéré comme l’un des premiers découvreurs de l’effet papillon. En effet il avait noté avant tout le monde qu’un système de 3 corps en interactions pouvait conduire à des instabilités, des sensibilités aux conditions initiales, et devenait vite imprédictible

    En particulier dans Science et Méthode, en 1908, il écrivait :

    Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrons connaître la situation initiale qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit.

    Revenons à la section de Poincaré. L’idée est assez simple : prenez un système continu en dimension D (pensez à celui de Lorenz, donc D=3) et considérez un hyperplan de l’espace des phases, de dimension D-1. Les trajectoires vont croiser de nombreuses fois ce plan, et on peut considérer les points d’intersection successifs au fur et à mesure que la trajectoire se prolonge. L’application qui a un point du plan associe le point suivant et une transformation en temps discret sur le plan.

    La transformation de Hénon a, en fait, été initialement conçue par Michel Hénon comme une variante du système de Lorenz après section de Poincaré, dans le but de pouvoir révéler la structure fractale de l’attracteur de façon plus facile que le système de Lorenz.

    Lorenz lui même avait déjà imaginé une astuce de ce genre. Il avait suggéré que les deux ailes de son attracteur semblaient se recoller au niveau d’un segment, et que toute trajectoire sembler passer par ce segment de façon périodique. On peut donc considérer l’application qui a un point du segment associe le point suivant sur la trajectoire. Lorenz avait montré que l’application en question ressemblait beaucoup à une fonction en forme de tente, qui exhibe un comportement chaotique du même genre que la fonction logistique.

    D’ailleurs le caractère chaotique de la fonction logistique n’est pas du tout spécifique de cette fonction en particulier. Si on prend une fonction croissante puis décroissante de [0;1] dans lui-même, on peut obtenir le même genre de comportement, par exemple avec f(x) = \sin(\pi x).

    Encore plus fort, ce qu’on a observé sur le diagramme de bifurcation de la fonction logistique est en fait assez générique. En particulier les écarts entre les points pour lesquels on observe un dédoublement.

    Dans le cas de la fonction logistique, notons r_n le point de bifurcation au-delà duquel on a une orbite périodique constituée de 2^n points, et ce jusqu’au point r_{n+1}.

    On a donc vu que r_1=3, puis que r_2\approx 3.449, et r_3\approx 3.544. On a remarqué que les intervalles sont de plus en plus petits. En fait on peut montrer deux choses : d’une part que r_n tend vers \approx 3.56995..., qui marque donc l’entrée dans le régime chaotique; et d’autre part que le ratio entre un intervalle et le suivant tend vers une constante, C\approx 4.66920, appelée constante de Feigenbaum.

    Ce qui est extraordinaire, c’est que cette constante est la même pour toutes les transformations du même genre. On aurait pu prendre un sinus à la place de la fonction logistique, on aurait trouvé la même constante, c’est un truc universel !

    Et d’ailleurs on retrouve la même chose pour l’ensemble de Mandelbrot que j’ai juste figuré via la vidéo de El JJ. On retrouve la constante de Feigenbaum comme ratio de taille de cercles successifs sur l’axe réel dans l’ensemble de Mandelbrot.

    Chaos et Fractales

    C’est du coup le bon moment pour commenter un peu plus les liens qui unissent la théorie du chaos et les fractales. Les deux sont très fréquemment associés, surtout dans la vulgarisation autour du sujet, mais le lien n’est pas si évident que cela à comprendre.

    Tout d’abord, si vous connaissez par exemple l’ensemble de Mandelbrot, vous voyez qu’il existe au moins un lien : la notion d’itération successive d’une application. L’ensemble de Mandelbrot est définir à partir de la fonction du plan complexe

    f_c(z) = z^2 + c

    et consiste à regarder les valeurs de c pour lesquels l’itération répétée de la fonction f_c à partir du point z=0 ne diverge pas à l’infini.

    Nous avons vu que dans le domaine des systèmes chaotiques, les fractales surgissent d’au moins deux façons :

    • les attracteurs peuvent avoir une structure fractale (comme l’attracteur de Lorenz ou celui de Hénon)
    • les diagrammes de bifurcation peuvent avoir une structure fractale.

    De façon plus philosophique, on peut comprendre le lien entre fractales et systèmes chaotiques par l’idée générale que aussi proches que soient deux points dans l’espace, ils peuvent « être loin » du point de vue des propriétés. Dans le système chaotique, parce que l’évolution du système va les séparer de façon exponentielle. Dans les fractales parce que, par exemple, si on prend une courbe fractale (pensez à la côte bretonne), deux points très proches « à vol d’oiseau » peuvent se trouver à grande distance l’un de l’autre si on suit la courbe. (J’agite un peu les mains mais vous voyez l’idée).

    Si on creuse un peu, on peut montrer que certains attracteurs étrange on une structure qui est en gros le produit d’un sous-espace « normal » par un sous-espace fractal du type « ensemble de Cantor« . C’est le cas d’ailleurs pour Hénon et Lorenz.

    Ci-dessous un rappel de comment on construit l’ensemble de Cantor : on prend un segment, puis on enlève le tiers du milieu, et on itère.

  • Friday 26 January 2018 - 17:01

    La vidéo du jour parle d’une population injustement considérée : les gauchers !

    Si jamais vous vous posiez la question, eh bien non, je ne suis pas gaucher. Mais j’en ai plusieurs autour de moi, et je me sens donc en empathie avec eux, qui doivent sans cesse s’adapter à un monde conçu pour les droitiers, comme en témoigne d’ailleurs cette tasse avec l’anse à droite.

    Premier point à repréciser concernant la préférence manuelle, il ne s’agit pas d’un trait binaire. Si la plupart d’entre-nous écrivent d’une seule main, il y a tout un continuum entre les « purs droitiers » et les « purs gauchers ». Le standard pour évaluer ceci est l' »Edinburgh Inventory », qui évalue notre préférence manuelle sur 20 actions, et permet de se placer sur une échelle allant de -10 (purs gauchers) à 10 (purs droitiers).

    Oldfield, R. C. (1971). The assessment and analysis of handedness: the Edinburgh inventory. Neuropsychologia, 9(1), 97-113.

    Les actions sont l’écriture, le dessin, l’usage de ciseaux, la brosse à dent, la raquette de tennis, la fourchette, le couteau, la cuillère, le balais ou le râteau, la distribution d’un jeu de cartes, la couture, l’ouverture d’une boite, l’utilisation d’une allumette, d’un club de golf, d’un marteau, d’un tournevis, etc.

    Le graphique suivant montre la distribution de latéralité trouvée selon cette échelle, on voit qu’on est assez loin d’un monde de purs gauchers ou purs droitiers.

    Mais l’analyse plus fine montre que la main avec laquelle on écrit est très prédictive de si on est « plutôt gaucher » ou « plutôt droitier ». Donc « binariser » ce trait sur la base de la main d’écriture est simplificateur, mais pas complètement absurde.

    Une asymétrie intime

    Il y a quand même une anecdote que je voulais vous partager mais que je n’ai pas réussi à caser harmonieusement dans la vidéo. Outre la latéralisation des organes, il existe une asymétrie qui est (parait-il) bien connue des tailleurs : au repos les hommes portent très majoritairement leur pénis à gauche (80%). Ca été étudié scientifiquement, voici les statistiques.

    Et pour ceux qui voudraient en savoir plus, voici la publication de référence

    Bogaert, A. F. (1997). Genital asymmetry in men. Human reproduction (Oxford, England), 12(1), 68-72.

    Adaptationisme, rhésus et dérive génétique

    J’avoue, j’ai un peu profité de cette vidéo pour faire passer quelques messages sur l’adaptationisme, et cette tendance à vouloir tout expliquer par la sélection naturelle, et notamment des traits psychologiques ou comportementaux. Dans le cas précis des gauchers, j’ai probablement poussé le bouchon un peu loin.

    En effet le fait que le pourcentage de gauchers soit si constant dans la population semble indiquer qu’il y ait effectivement un équilibre de forces évolutionnaires à l’oeuvre. En effet si un trait donné est « neutre » sur la « fitness » d’une espèce, il va facilement subir des dérives génétiques, et varier significativement d’une population à l’autre. Et même, le polymorphisme (le fait qu’il y ait plusieurs variantes du trait) peut disparaitre dans certaines populations. Ca ne semble pas le cas pour les gauchers, donc on peut légitimement supposer que ce trait n’est pas neutre sur la fitness.

    C’est d’ailleurs intéressant de regarder ce qu’il en est pour le rhésus. Pour ce dernier, on a semble-t-il effectivement des variations importantes d’une population à l’autre. Par exemple on a moins d’1% de rhésus négatif chez Amérindiens, mais 30 à 50% chez les Basques !

    Et pour le rhésus, on a clairement des effets de sélection. En effet une mère négative ayant déjà eu un enfant positif peut avoir développé une immunisation qui mettra en danger de futurs enfants positifs. D’un autre côté, d’autres effets sont soupçonnés, qui peuvent expliquer la diffusion progressive du rhésus positif, alors que le rhésus négatif était certainement le trait primitif. Par exemple le rhésus positif semble protéger de certaines modifications de comportement et personnalité consécutifs à une infection à la toxoplasmose.

    Novotná, M., Havlíček, J., Smith, A. P., Kolbeková, P., Skallová, A., Klose, J., … & Flegr, J. (2008). Toxoplasma and reaction time: role of toxoplasmosis in the origin, preservation and geographical distribution of Rh blood group polymorphism. Parasitology, 135(11), 1253-1261.

    J’en profite pour préciser que la vision du rhésus comme un simple gène à 2 allèles est un peu simplifiée. Il existe en réalité plusieurs gènes, dont le principal est le gène RhD (c’est de ce dernier dont on parle en principe quand on ne précise pas), et ce gène existe en différentes variantes, et il en existe quelques unes minoritaires au-delà des deux principales. Je vous renvoie à l’entrée Wikipédia sur le rhésus.

    Avantages et désavantages

    Dans la vidéo, je n’ai pas pu mentionner la longue liste des hypothèses concernant les potentiels avantages ou désavantages que procurent le fait d’être droitier ou gaucher. On trouve quelques revues intéressantes qui font le lien vers des dizaines d’études. Le problème est que beaucoup de ces études sont restées relativement unique, et proposent des hypothèses qui sont difficiles à tester.

    Llaurens, V., Raymond, M., & Faurie, C. (2009). Why are some people left-handed? An evolutionary perspective. Philosophical Transactions of the Royal Society of London B: Biological Sciences, 364(1519), 881-894.

    Deux idées que j’aime bien concernant un avantage résiduel à être gaucher : le fait que le cerveau des gauchers soit moins latéralisé (qui se traduit notamment par un corps calleux plus gros) peut justement être à l’origine d’une meilleure capacité à s’adapter à des situations nouvelles, pour lesquelles l’optimisation des droitiers n’est pas une force. En gros les droitiers se sont spécialisés, mais il reste encore quelques situations où être « plus généraliste » peut aider.

    Un autre point que je n’ai pas mentionné : j’ai critiqué l’hypothèse selon laquelle l’avantage des gauchers au combat pourrait exercer une pression évolutive suffisante. Pour modérer un peu ce propos, je n’ai parlé dans la vidéo que des duels se soldant par la mort, mais il peut y avoir une situation plus courante : un combat pour l’accès aux femelles. C’est un cas classique dans la nature : la sélection sexuelle mène à développer des traits qui assurent le succès reproducteur, et notamment la capacité à se bastonner chez les mâles. D’où le développement de traits comme les cornes et bois, le dimorphisme sexuel en général.

    Question ouverte pour moi : jusqu’à quelle moment dans l’évolution de la lignée humaine, les mâles se sont-ils battus physiquement pour l’accès aux femelles (de façon suffisamment significative pour exercer une pression de sélection non-négligeable) ? Si quelqu’un a des billes, je suis preneur.

    Les animaux gauchers

    Je l’ai dit, il existe plein d’études qui détectent plus ou moins de latéralisation chez nos amis les animaux. Ce sont des études difficiles, car autant chez l’humain le critère de « la main avec laquelle on écrit » est assez facile à juger, autant chez les animaux il faut trouver des situations permettant de faire cette analyse (pour se nourrir, par exemple).

    Pour les singes, les études ont été beaucoup sujettes à controverse car l’observation de singes en captivité peut être entachée de l’influence humaine (les singes imitent les hommes).

    Pour les kangourous, il semble que ce soient seulement les kangourous bipèdes qui présentent une asymétrie de latéralisation, mais pas les quadrupèdes.

    Enfin pour les perroquets, je ne peux pas m’empêcher d’y voir un lien avec le fait que certains perroquets savent très bien imiter la voix humaine…mais je n’ai aucune bille sur cette hypothèse !

    Concernant les chats, une publication a rapporté un résultat étonnant mais dont je n’ai pas trouvé de réplications : la préférence « manuelle » des chats serait très déterminée par leur sexe ! Les chats seraient gauchers tandis que les chattes seraient droitières.

    Wells, D. L., & Millsopp, S. (2009). Lateralized behaviour in the domestic cat, Felis silvestris catus. Animal Behaviour, 78(2), 537-541.

    Dernière précision dans ce domaine : j’ai parlé du fait que l’art pariétal révèle en partie la préférence manuelle de nos ancètres. En l’occurence, les mains que l’on trouve sur les murs sont plutôt des mains gauches, car elle sont faites en « pochoir négatif ». Nos ancètres posaient leur main gauche sur le mur et utilisaient leur main droite pour projeter (et/ou souffler) de la peinture dessus et autour.

    Escargots et NODAL

    Pour ceux qui veulent creuser la question des escargots qui tournent à l’envers (dits « senestres »), j’avais écrit un billet sur le sujet il y a pas mal d’années. Et l’histoire est amusante car dans ce cas précis, il y a un effet génétique subtile appelé « matrocline ». En gros l’enroulement de la coquille est déterminé par des protéines maternelles, et donc par le génotype de la mère. C’est à dire que l’enroulement de la coquille d’un bébé escargot est en quelque sorte un élément du « phénotype étendu » de sa mère.

    Je vous renvoie à mon vieux billet sur le sujet !

    https://sciencetonnante.wordpress.com/2011/01/13/senestres-les-escargots-qui-tournent-a-gauche/

  • Friday 05 January 2018 - 17:01

    La vidéo du jour parle d’un sujet en apparence banal : les nuages !

    Plein de compléments à ajouter à cette vidéo, car le thème touche plusieurs domaines de la science !

    La zoologie des nuages

    Tout d’abord, vous aurez remarqué que je me suis gardé d’aborder l’épineuse question de la classification des nuages. Il en existe de nombreuses sortes, avec des genres, des espèces et des variétés (source)


    Au-delà des noms, ce qui est intéressant c’est notamment de relier leur forme à leur mode de formation.

    Je l’ai dit dans la vidéo, pour qu’un nuage se forme, il faut le refroidissement d’une masse d’air humide. Ce refroidissement peut se produire par exemple simplement parce que l’air chaud et humide s’élève, jusqu’à une altitude où il est suffisamment froid pour que la condensation ait lieu. Cela produit des nuages apparaissant à une altitude bien donnée. De plus, comme la condensation de la vapeur libère de la chaleur, l’élévation du nuage se poursuit, provoquant l’apparition d’un joli panache. C’est comme ça que se forment les cumulus ou les cumulonimbus.

    D’une autre façon, il se peut qu’une masse d’air chaud et humide soit mise en déplacement relativement horizontal par les vents, et rencontre une masse d’air froid, plus dense, au-dessus de laquelle elle doit passer. C’est ainsi que se forment par exemple les stratus.

    Autre variante, si une masse d’air chaud est contrainte de s’élever à cause d’un relief, cela peut donner lieu à la formation de nuages « accrochés » au relief, comme par exemple les spectaculaires nuages lenticulaires (source)

    D’ailleurs je n’ai pas évoqué dans la vidéo la question de la chaleur dégagée par la condensation, mais celle-ci est vraiment importante. La condensation est une transition de phase dite du 1er ordre, c’est-à-dire que par réciproque avec le fait que l’évaporation demande de l’énergie (et donc « produit du froid »), la transformation de la vapeur en eau liquide restitue cette chaleur.

    La chaleur latente de vaporisation de l’eau est d’environ 2 MJ/kg. Un cumulus standard peut contenir quelques centaines de tonnes d’eau, et on approche le million pour un gros cumulonimbus. Ca nous fait dans les 10^15 J, qui doit être dans l’ordre de grandeur de la production électrique en France sur une journée.

    Si on regarde la chaleur latente d’une tempête tropicale, c’est bien pire ! On estime que l’énergie produite sur une journée est de l’ordre de 5.10^19 Joules (source), soit 50 fois la dépense énergétique mondiale sur cette même journée !

    De la chute des gouttes de pluie

    Je l’ai dit, les gouttelettes formées par condensation dans les nuages ne se mettent pas toutes seules à tomber vers le sol comme de la pluie. La raison en est une compétition entre la force de gravité (qui tend à faire tomber les gouttes), et les courants ascendants qui tendent à les maintenir.

    S’il n’existait aucun courant ascendant, la goutte tomberait avec une vitesse limite correspondant à l’équilibre entre la force de gravité, qui va dépendre de sa masse donc son volume, et les frottements de l’air, qui dépendent de sa section, proportionnelle à sa surface. Si on fait le bilan on trouve que la vitesse limite d’une gouttelette est essentiellement proportionnelle à son rayon (encore qu’il faudrait raffiner car la nature des frottements change avec la taille). Valeur typique ? De l’ordre d’1 m/s pour des gouttelettes de 200-300 microns.

    Sauf qu’à cela il faut ajouter la vitesse d’ascension des nuages, sous l’effet de la poussée d’Archimède, puisque le nuage est plus chaud que l’air environnant. Pour des nuages typiques, on se balade entre 0,5 et 5 m/s en vitesse d’ascension.

    Ainsi, ce n’est environ qu’à partir de 500 microns à 1 millimètre qu’une goutte finit par tomber vers le sol avec une vitesse significative: il pleut ! Mais deçà, les gouttes restent en suspension. D’ailleurs il ne pleut jamais de minuscules gouttes !

    Sinon je le dis là parce qu’il faut bien le souligner : il y a plein de trucs cools sur la formation des nuages de glace, qui jouent un rôle essentiel, mais j’ai préféré ne pas me disperser.  Il y a notamment un effet supercool (c’est le cas de le dire), l’effet Bergeron.

    L’équation de Köhler

    Entrons un peu dans les détails de ce qui se cache derrière les idées de Köhler. Le premier point concerne donc l’effet Kelvin. Pour l’estimer, il faut regarder la balance énergétique qui se produit lors du passage d’une petite quantité de vapeur à l’état liquide. Et pour ça, on va faire de la thermodynamique.

    Puisqu’on regarde un système à pression et température imposée de l’extérieur, la quantité thermodynamique pertinente est l’énergie de Gibbs. On cherche donc à estimer la variation de cette énergie lors d’un hypothétique passage de n molécules d’eau d’une phase vapeur à une phase liquide.

    La variation de potentiel chimique entre l’état gazeux et l’état liquide est donné par la relation

    \Delta\mu = -kT\log\left(\frac{P}{P_S}\right)

    P_S est la pression de vapeur saturante, et P/P_S est donc la saturation S.

    Mais l’énergie de Gibbs va varier aussi du fait de la création d’une interface eau/air, et il faut donc prendre en compte l’énergie de surface associée. Au total si les n molécules deviennent une goutte de rayon r, la variation d’énergie de Gibbs est

    \Delta G = -nkT\log S + 4\pi\sigma r^2

    A l’équilibre, la variation de l’énergie de Gibbs est nulle. On peut alors en déduire la relation entre sursaturation et rayon de la goutte (en utilisant le volume molaire de l’eau liquide pour faire le lien entre n et r), on obtient alors

    S = \exp\left(\frac{2\sigma}{\rho R T r}\right)

    (R est la constante des gaz parfait, apparue par combinaison de k et du nombre d’Avogadro).

    C’est la formule de l’effet Kelvin.

    Maintenant prenons en compte l’effet Raoult. En première approximation c’est assez simple, puisqu’il nous dit que pour un mélange de n molécules d’eau et q molécules de soluté, la pression de vapeur (par rapport au cas de l’eau pure) se trouve réduite d’un facteur n/(n+q). C’est proportionnel à la quantité d’eau dans l’ensemble. Pour des grandes quantités de soluté (donc au tout début de la condensation), cela réduit drastiquement la sursaturation nécessaire. Et voici le genre de courbes qu’on obtient (source)

    Ces courbes donnent la sursaturation critique en fonction de différents diamètres initiaux (« secs ») d’aérosols de sulfate d’ammonium. On y lit plusieurs choses : l’effet Raoult fait que même pour des saturations inférieures à 1, de l’eau va pouvoir condenser et faire croitre la particule qui atteindra l’équilibre. Mais ensuite il faudrait passer une saturation critique (le sommet de la courbe) pour entrer dans le régime de croissance instable.

    Prédictions climatiques et rayons cosmiques

    Dernier point concernant l’impact d’une meilleure compréhension de la formation des nuages sur les modèles climatiques. En résumé…c’est dur ! La principale difficulté est un problème d’échelle. Les modèles de formation des nuages fonctionnent sur des échelles d’espace et de temps bien plus fines que les modèles climatiques, qui ne peuvent pas se permettre de modéliser les choses à la minute et au mètre près. Et c’est cette principale difficulté qui rend compliqué l’amélioration des prédictions.

    Un petit mot tout de même sur la question des rayons cosmiques. Il a été envisagé pendant un temps que les rayons cosmiques puissent avoir une influence assez déterminante sur la formation des nuages (via l’ionisation de particules de l’atmosphère), et donc sur les équilibres climatiques. Cette hypothèse aurait pu notamment conduire à imaginer que les variations climatiques de long terme aient pu être influencées par une activité solaire variable, et notamment le vent solaire qui module les flux de rayons cosmiques qui atteignent la Terre.

    Mais n’en déplaise aux climatosceptiques, cette hypothèse a été invalidée par les récentes expériences de la collaboration CLOUD au CERN, qui ont montré que l’impact des rayons cosmique sur la production de nuage est négligeable par rapport aux autres phénomènes.

    Dunne, E. M., Gordon, H., Kürten, A., Almeida, J., Duplissy, J., Williamson, C., … & Barmet, P. (2016). Global atmospheric particle formation from CERN CLOUD measurements. Science, 354(6316), 1119-1124.

     

     

  • Friday 08 December 2017 - 17:02

    La vidéo du jour traite des automates cellulaires, et en particulier de l’intriguant « jeu de la vie ».

    Pour ceux que ça intéresse, je vais mettre le code en partage sur GitHub (si j’y arrive). Il est loin d’être parfait, et d’ailleurs je vous encourage à écrire le votre ! Mais vous y trouverez peut être quelques astuces intéressantes sur comment lire les fichiers RLE (qui encodent de façon compacte les situations de départ), ou bien génerer des vidéos à partir d’images MatPlotLib en Python.

    Edit du 09/12 : le code est dispo sur GitHub

    Golly

    Si vous regardez l’historique des découvertes au sujet du jeu de la vie, vous noterez peut être une certaine recrudescence ces dernières années. Cela est notamment dû à l’utilisation d’un nouveau code de simulation ultra rapide nommé Golly. C’est celui qui a été notamment utilisé dans la séquence du « jeu de la vie simulé dans un jeu de la vie ».

    Pour en savoir plus sur Golly, vous pouvez lire cet article de l’excellent JP Delahaye

    Machine de Turing

    Je suis passé assez vite sur la question de la machine de Turing en jeu de la vie, mais parce que je ne voulais pas m’embarquer dans des questions qui m’auraient fait diverger de l’objectif initial. Mais on trouve plein de petites vidéos illustratives, par exemple

    ou encore concernant les portes logiques

    Ou bien cette très belle horloge en jeu de la vie (merci Samuel !)

  • Friday 24 November 2017 - 17:03

    La vidéo du jour est un retour à ma série « Crétin de cerveau ». On y parle des biais implicites et des effets d’amorçage en psychologie cognitive et sociale.

    Comme je l’explique dans la vidéo, les résultats publiés dans ces domaines sont parfois à prendre avec une certaine dose de sens critique. C’est vrai des tests d’association implicite, mais aussi de certains effets d’amorçage dont la réalité a été critiquée dans certaines publications (par exemple celle-ci.)

    Biais implicites sur la science et les femmes

    Une étude de complément dont je n’ai pas parlé dans la vidéo mais qui me semble assez intéressante est celle des associations implicites entre « Science/Lettres » et « Hommes/Femmes ». La publication suivante rapporte des résultats de tests réalisés dans différents pays, et montre de sacrés différences.

    Nosek, B. A., Smyth, F. L., Sriram, N., Lindner, N. M., Devos, T., Ayala, A., … & Kesebir, S. (2009). National differences in gender–science stereotypes predict national sex differences in science and math achievement. Proceedings of the National Academy of Sciences, 106(26), 10593-10597.

    On voit notamment sur la figure ci-dessous que les pays pour lesquelles l’association implicite « Hommes/sciences » et « Femmes/Lettres » est la plus forte sont aussi ceux où les différences hommes/femmes sont les plus importantes sur des tests de science réalisés en collège.

    Pour être totalement rigoureux, on pourrait se demander qu’est-ce qui cause l’autre. Est-ce parce que les hommes sont meilleurs en sciences dans un pays donné que le biais implicite se crée, ou l’inverse. Après on peut aussi remarquer qu’il faut vraiment plisser les yeux pour voir la corrélation, même si sur le plan statistique elle semble exister.

    Racisme et prophéties auto-réalisatrices

    Dans ce billet, je voudrais donner quelques détails sur la dernière étude que j’ai mentionnée, car elle me semble justement d’une certaine solidité méthodologique.

    GLOVER, Dylan, PALLAIS, Amanda, et PARIENTE, William. Discrimination as a self-fulfilling prophecy: Evidence from French grocery stores. The Quarterly Journal of Economics, 2017, p. qjx006.

    Comme expliqué, dans la vidéo, l’étude porte sur 34 magasins d’une grande enseigne de distribution française (on ne sait pas laquelle !). Les employés considérés dans l’étude sont en contrat de professionnalisation pour une durée de 6 mois. Chaque magasin comporte plusieurs dizaines de caisses et ce sont au total 204 caissières et caissiers qui ont été suivis (majoritairement des femmes, je vais donc employer le féminin).

    Chaque jour, un manager supervise un groupe de caisses et les caissières qui y travaillent. Un point clé est que contrairement aux employées en contrat classique, les caissières en contrat de professionnalisation n’ont pas la possibilité de soumettre de préférences pour leurs horaires d’affectation, et se retrouvent donc affectées aux managers par un programme informatique, et de façon plus ou moins aléatoire. C’est très intéressant d’un point de vue de l’analyse des données, car cela veut dire qu’une même employée va tomber sur plusieurs managers de façon quasi aléatoire. Donc on aura plus d’observations différentes.

    Au total, ce sont 4371 observations qui ont été collectées, comprenant à chaque fois l’identité d’une caissière, d’un manager, et les chiffres de la performance de la caissière ce jour là. Par performance on entend notamment la vitesse de scan, la durée entre les clients, les éventuels retards ou absences, etc.

    Pour les besoins de l’analyse, chaque employée a été classée selon son origine. Ça n’a pas été immédiat car en France il n’est pas autorisé de faire des statistiques ethniques sur une population. Les auteurs de l’article ont donc eu recours aux noms et prénoms des caissières, qui ont permis de proposer une catégorisation réalisée par le CORUM

    Pour estimer les biais implicites des managers, les auteurs leur ont fait passer un test d’association implicite dans lequel les mots étaient soit des prénoms (connotés nord-africain, ou pas) soit des mots positifs ou négatifs (plutôt associé au domaine professionnel, la compétence, l’incompétence, etc.)

    Ce test a révélé un biais modéré à sévère chez 66% des managers, un biais léger chez 20%, et peu ou pas de biais chez 9%. Chez 4% des managers, le biais était inversé (notons que 6% des managers étaient d’ailleurs issus de minorités).

    Pour éliminer l’hypothèse selon laquelle les managers biaisés seraient simplement plus mauvais managers que les autres, les auteurs ont aussi considéré des caissières ne faisant pas partie de minorités, et ont comparé les variations de performance selon les managers.

    Sur toutes les métriques considérées, les auteurs ont montré que l’affectation d’une caissière à un manager biaisé conduisait à une diminution de sa performance, diminution statistiquement significative.

    Ils ont ensuite mené des entretiens téléphoniques avec les caissières pour tenter de déterminer si elles avaient ressenti un racisme explicite de la part des managers biaisés. Il en ressort que les caissières ne rapportent pas de racisme explicite, ne se plaignaient pas des managers biaisés plus que des autres. Sous la responsabilité des  managers biaisés, elles étaient moins susceptibles de se voir affecter des tâches déplaisantes, mais aussi qu’elles se voyaient moins souvent proposer de faire des heures supplémentaires. Enfin elles avaient aussi tendance à moins bien se rappeler des managers biaisés que des autres.

    Cela a suggéré aux auteurs le fait que les managers biaisés interagissaient tout simplement moins que les autres avec les caissières, et que c’est ce déficit d’interaction qui a causé leur performance moindre.

    C’est en ce sens que les auteurs parlent de prophétie auto-réalisatrice : parce que les managers biaisés pensent que les employées des minorités sont moins compétentes, ils interagissent moins, conduisant à une diminution de leur performance.

  • Sunday 12 November 2017 - 17:48

    Cela fait maintenant de nombreuses semaines que la Commission Européenne peine à se mettre d’accord sur le renouvellement — ou pas — de l’autorisation du glyphosate, cet herbicide largement utilisé, et commercialisé depuis 1974 par Monsanto sous l’appellation Round-Up.

    Les batailles d’influence font rage, expertises et contre-expertises se succèdent, et comme le soulignent plusieurs titres de presse, l’affaire ressemble de plus en plus à un précédent de sinistre mémoire : celui de l’amiante.

    Dans les deux cas on retrouve les mêmes ingrédients :

    • Un produit massivement utilisé par des professionnels, qui se retrouvent de fait fortement exposés (les agriculteurs pour le glyphosate, et les ouvriers travaillant dans le secteur de l’amiante)
    • Un lobby industriel puissant ayant un intérêt financier considérable à ce que le produit ne soit pas interdit.
    • Des batailles d’influence concernant le caractère cancérigène des produits.

    Le parallèle semble saisissant, non ? Alors pourquoi n’arrive-t-on pas à faire interdire le glyphosate ? Faisons une comparaison quantitative.

    Le cas de l’amiante

    Examinons un peu ce que l’on sait sur les dangers de l’amiante. Pour évaluer la dangerosité d’un produit, il existe plusieurs manières de procéder.

    Une façon de faire est de réaliser des études sur des animaux, afin de démontrer le caractère cancérigène, et éventuellement d’en élucider les mécanismes. Par exemple on prend 2 groupes de rats, dont un que l’on en soumet à une exposition donnée au produit incriminé. Au bout d’un certain temps on compare les mortalités ou la survenue de certaines affections comme des cancers.

    Dans le cas de l’amiante, on a évidemment fait ce genre d’études. (Pour les curieux, en voici par exemple une, très citée. Wagner, J. C., Berry, G., Skidmore, J. W., & Timbrell, V. (1974). The effects of the inhalation of asbestos in rats. British journal of cancer, 29(3), 252-269.)

    En complément de ces études en laboratoire, une autre manière de procéder, c’est de faire de l’épidémiologie : on prend des vrais humains ayant été vraiment exposés, et on étudie la surmortalité ou le risque de survenance accrue de certaines maladies. Il existe maintenant de nombreuses études de ce type sur les travailleurs de l’amiante (et elles sont d’ailleurs assez anciennes, les années 1980 et même avant).

    Je ne vais pas tout exposer, mais juste pour illustrer de quoi on parle, je vais commenter une de ces études qui est relativement récente, très citée, et qui de plus est en accès ouvert

    Yano, E., Wang, Z. M., Wang, X. R., Wang, M. Z., & Lan, Y. J. (2001). Cancer mortality among workers exposed to amphibole-free chrysotile asbestos. American journal of epidemiology, 154(6), 538-543.

    Cette étude a suivi des travailleurs en Chine sur 25 ans (entre 1972 et 1996). Le groupe (qu’on appelle une « cohorte ») était composé de 1165 ouvriers. Parmi eux, 515 travaillaient dans une usine d’amiante, et 650 dans une usine voisine présentant des conditions de travail similaires, mais sans exposition à l’amiante. Ce second groupe présentait des caractéristiques socio-économiques identiques à celui des travailleurs de l’amiante, et sert donc de groupe « de contrôle ».

    L’idée de l’analyse est de comparer la surmortalité dans le groupe « amiante », par rapport au groupe de contrôle. Et les chiffres sont terrifiants.

    Sur les 515 travailleurs suivis dans le groupe amiante, 132 sont décédés pendant la période, soit une mortalité de 25 %. Sur les 650 du groupe de contrôle, seulement 42, soit 6 %. L’exposition à l’amiante a donc multiplié la mortalité par 4 !

    Les résultats sont encore plus édifiants si on détaille les causes de mortalité (ci-dessous un extrait de l’article)

    On peut noter :

    • 50 cancers du poumon chez les travailleurs « amiante » et 11 chez les travailleurs « contrôle ». On passe donc de 1,7 % d’incidence du cancer chez les travailleurs non-exposés à 6 fois plus chez les travailleurs exposés.
    • 38 maladies respiratoires non-malignes chez les « amiantes » contre 9 chez les « contrôles ». Une augmentation d’un facteur 4.
    • 2 cas de mésotheliome dans le groupe exposé (et aucun dans l’autre) ; il s’agit d’une forme rare de cancer quasi-exclusivement dû à l’amiante.

    Bref la comparaison est sans appel. De façon générale, on voit que les travailleurs de l’amiante ont une probabilité 4 à 6 fois plus importante de développer un cancer par rapport au groupe de contrôle. C’est ce qu’on appelle le « risque relatif ».

    Et même si je ne présente ici qu’une seule étude, la taille des groupes d’étude est suffisamment importante pour qu’on soit assurés qu’il ne s’agit pas d’une fluctuation statistique. Bien évidemment il y a eu plein d’autres analyses de ce genre, allant toutes dans le même sens, avec des risques relatifs du même ordre de grandeur.

    Glyphosate et cancer

    Passons au cas du glyphosate. Si je vous parle de cela aujourd’hui, c’est qu’il y a quelques jours, une étude épidémiologique vient d’être publiée concernant les liens entre glyphosate et incidence du cancer chez les agriculteurs. Et il s’agit probablement de la plus grosse étude épidémiologique de ce type à ce jour.

    Le gros avantage des études épidémiologiques, par rapport aux études in vivo sur des animaux, c’est qu’elles sont aussi proches que possible de la vraie vie : c’est le produit complet (pas juste la molécule active) dans son environnement réel.

    L’étude est en accès libre, et comme il s’agit d’une étude épidémiologique, elle reste relativement facile à lire (c’est surtout des statistiques), je vous conseille donc d’aller y faire un tour.

    Glyphosate Use and Cancer Incidence in the Agricultural Health Study 
    JNCI: Journal of the National Cancer Institute, djx233, https://doi.org/10.1093/jnci/djx233

    Mais avant de commencer, les vérifications d’usage.

    L’étude est publiée dans un journal très sérieux : revue par les pairs, gros « impact factor » (12), ça ne suffit pas mais c’est un bon signe.

    La directrice de l’étude (l’investigatrice principale Laura Beane Freeman) est une spécialiste de  l’épidémiologie de cancer chez les travailleurs exposés. Vous pouvez aller voir sa liste de publications. Elle a bossé sur des sujets similaires pour l’exposition au formaldéhyde, à l’arsenic, et récemment à d’autres types de pesticides dans l’agriculture. Pour reprendre la formulation de Tom Roud sur Twitter : « On a affaire à des gens qui cherchent (et trouvent) manifestement ces cancers ». (Tom Roud dont le tweet m’a d’ailleurs donné envie d’écrire ce billet)

    Les financements sont tous d’origine publique, et aucun des auteurs n’a de conflit d’intérêt déclaré.

    Bref, les signaux sont plutôt au vert pour l’instant.

    Passons à l’étude. Il s’agit d’une étude épidémiologique sur plus de 20 ans de 54 251 agriculteurs travaillant en Caroline du Nord et dans l’Iowa. Une cohorte énorme, donc. (La cohorte AHS, Agricultural Health Study)

    Parmi les agriculteurs de la cohorte, 9319 n’ont jamais utilisé de glyphosate, et vont donc servir de groupe de contrôle. Les autres (44 932 agriculteurs) sont le groupe qui a été exposé au glyphosate. Pour les deux groupes, les auteurs ont vérifié que les données socioéconomiques de base sont comparables (pyramide des âges, sexe, niveau d’éducation, tabagisme, consommation d’alcool, etc.)

    Bien sûr, on s’imagine volontiers que le groupe « glyphosate » puisse être assez hétérogène, et contienne à la fois des agriculteurs l’ayant utilisé de façon ponctuelle, et d’autres de façon intensive. Pour chacun des agriculteurs, des questionnaires ont permis d’évaluer l’exposition au glyphosate (nombre de jours, d’années, et intensité de l’utilisation), et de segmenter le groupe « glyphosate » en 4 groupes de taille identique : Q1, Q2, Q3 et Q4, d’exposition croissante. Le groupe Q1 contient les 25 % les moins exposés, et le groupe Q4 les 25 % les plus exposés.

    Durant la période de suivi, on a diagnostiqué au total 7290 cas de cancer pour le total des agriculteurs : 1511 cas dans le groupe de contrôle et 5779 dans le groupe « glyphosate », dont voici la répartition (extrait de l’article) :

    Pour chacun des groupes, les auteurs ont estimé le risque relatif (colonne de droite), c’est-à-dire l’augmentation de la probabilité d’avoir un cancer par rapport au groupe de contrôle. Comme vous pouvez le constater, le risque relatif est essentiellement égal à 1, ce qui traduit l’absence d’augmentation de cancer du fait du glyphosate, et ce quelle que soit l’exposition.

    Rassurant, mais ce genre d’analyse ne suffit pas ! Comme pour l’amiante, on soupçonne en effet que le glyphosate ait un mécanisme d’action spécifique qui conduise à favoriser certains types de cancer, en particulier les lymphomes non-Hodgkiniens, un type de cancer du système lymphatique.

    Les auteurs ont donc calculé quel était le risque relatif associé à chacun des 22 types de cancer considérés : poumons, colon, rectum, pancréas, testicules, etc.. Je ne vais pas tout détailler, vous pouvez aller voir vous même la table n°2 du papier (il est en accès libre je rappelle)

    Voici les chiffres pour les lymphomes non-Hodgkinien (nombre de cas et risque relatif estimé pour le groupe de contrôle « None » et les groupes Q1 à Q4)


    Comme vous pouvez le constater, il n’y a pas d’augmentation de  l’incidence des lymphomes non-Hodgkinien chez les agriculteurs exposés au glyphosate, dans aucun des 4 groupes d’exposition. Et si on regarde les chiffres de la dernière colonne, on peut même lire que le risque relatif est inférieur à 1, ce qui semble suggérer que le glyphosate protège légèrement de ce cancer. Est-ce le cas ? Bien sûr que non ! Ce qu’on voit là est probablement un effet purement « statistique », du fait qu’on n’a qu’une centaine de cas, et donc des fluctuations inévitables.

    Il existe une mesure de ce risque de fluctuation que l’on utilise dans toute étude statistique, la « valeur p » : c’est le chiffre que l’on trouve dans la dernière colonne en bas (0,95 dans le tableau ci-dessus). Plus ce chiffre est petit, plus le lien est robuste.

    Sans rentrer dans les détails (ils sont dans ce billet), on considère par convention qu’un résultat est « statistiquement significatif », et qu’on a le droit de le publier, quand cette valeur est inférieure à 0,05. Mais si c’est inférieur à 0,01 voire 0,001, c’est encore plus robuste.

    Si on explore la table n°2 de l’article dans son intégralité, on voit que pour aucun des 22 types de cancer on n’a d’effet avec une valeur p qui soit inférieure à 0,05.

    Celui qui s’en rapproche le plus, c’est la leucémie myéloïde aigüe : 9 cas parmi les 9319 agriculteurs du groupe de contrôle (soit 0,10% des agriculteurs du groupe) et 57 cas chez les 44 932 agriculteurs utilisant du glyphosate (0,13% des agriculteurs du groupe). Est-ce significatif ? Pas à ce stade. La valeur p est 0.11, donc trop élevée pour conclure, mais suffisant pour en appeler à regarder spécifiquement ce type de cancer dans des études futures. Et ce sont précisément les derniers mots de la conclusion de l’article :

    Que conclure de cette étude ?

    Dans les paragraphes précédents, je me suis borné à rapporter les chiffres de l’étude. Je voudrais évidemment faire quelques commentaires personnels, qui sont à prendre pour ce qu’ils sont (et je me ferai fort de les compléter ou les amender si les commentaires de ce billet pointent des erreurs ou des incompréhensions de ma part)

    Le principal message que je veux faire passer avec ce billet, c’est que quantitativement parlant, et en ce qui concerne spécifiquement le lien glyphosate/cancer, on est très très loin des chiffres de l’amiante. Les surmortalités associées à l’amiante sont gigantesques, et là pour le glyphosate, sur une cohorte de plus de 50 000 travailleurs exposés, on ne voit rien de significatif. La comparaison est donc totalement démesurée.

    Et là on ne parle pas d’une étude en laboratoire sur un petit nombre de rats qu’on expose à des doses artificielles de glyphosate, mais d’une étude épidémiologique, en conditions réelles, sur une cohorte énorme.

    Attention toutefois, comme toujours en sciences « l’absence de preuve n’est pas une preuve de l’absence ». Peut-être qu’en cherchant plus et mieux (c’est-à-dire avec une cohorte encore plus importante, des expositions encore plus grandes en durée et en intensité, des durées de suivi plus longues, etc.), on finirait par trouver des liens significatifs.

    (Pour une discussion sur l’effet de la cohorte, voir cette série de tweets de Nathalie Jas qui suggère notamment que dans d’autres régions comme en Californie, les niveaux d’exposition puissent être encore plus importants)

    Donc cette étude n’exclut pas qu’il existe un effet du glyphosate sur l’incidence de certains types de cancers, mais cet effet s’il existe ne peut pas du tout être du même ordre que celui de l’amiante. Si c’était le cas, avec une étude aussi massive que celle-ci, ce serait ressorti de façon gigantesque.

    Autre critique potentielle, on peut imaginer que si on ne trouve pas de différence entre le groupe « glyphosate » et le groupe de contrôle, c’est que le groupe de contrôle utilise à la place d’autres pesticides dont l’effet cancérigène est identique à celui du glyphosate . Ca n’est pas à exclure et pour le montrer il faudrait faire une analyse par type de pesticide utilisé (ce qui doit être possible avec la cohorte AHS).

    On pourrait imaginer comparer les agriculteurs à un autre groupe sans aucune exposition aux pesticides, mais cela devient difficile sur le plan statistique. Un exemple ? Au total, les agriculteurs ont en moyenne 30% de cancer en moins que la population générale. Pas parce que leur métier les protège, mais parce que le tabagisme est moins répandu chez les agriculteurs que dans la population générale (par ex. l’étude AGRICAN, qui est l’équivalent français de la cohorte AHS). Donc isoler des effets en comparant des groupes trop différents est délicat.

    Autre précision évidente : on parle là des travailleurs exposés au glyphosate, pas de la population générale. Si les gens qui en manipulent massivement dans leur métier n’ont pas d’augmentation du risque, on peut légitimement penser que dans la population générale (pour laquelle l’exposition est très largement inférieure), ce soit la même chose. (Mais le démontrer nécessiterait autre genre d’étude)

    Ensuite, et c’est important : le cancer n’est pas tout. Par exemple il existe des liens avérés entre l’exposition à certains pesticides et certaines maladies neurodégénératives. Voir par exemple pour cette méta analyse concernant l’incidence de la maladie de Parkinson

    Van Der Mark, M., Brouwer, M., Kromhout, H., Nijssen, P., Huss, A., & Vermeulen, R. (2012). Is pesticide use related to Parkinson disease? Some clues to heterogeneity in study results. Environmental Health Perspectives, 120(3), 340.

    Bref, tout n’est pas rose en matière de santé pour les agriculteurs, mais sur la question spécifique du lien glyphosate/cancer, l’étude dont j’ai parlé dans ce billet me semble être un élément important à verser au débat, et à porter à la connaissance du public. Il me semble que c’est ce qu’on peut espérer de plus sérieux et de plus robuste à ce jour en matière de lien épidémiologique cancer/glyphosate pour les travailleurs exposés.

    Mais j’ai comme l’impression que la presse française ne va pas se presser pour parler de cette étude. C’est tellement moins vendeur que les études catastrophistes, même quand elles sont beaucoup moins solides. Puisse ce billet inciter les journalistes scientifiques à faire ce travail (et nul doute qu’ils le feront mieux que moi et avec un public potentiel plus large).


    PS : évidemment, nul besoin de le préciser : je ne suis pas à la solde de Monsanto. Je ne fais cela que par souci d’aider à la meilleure information possible du public. Si je me permets d’écrire sur ce sujet qui n’est pas mon coeur de compétence, c’est que les aspects techniques de l’article sont essentiellement statistiques, sujet pour lequel je m’estime raisonnablement compétent. Je conçois volontiers qu’on puisse ne pas aimer Monsanto, et je n’ai aucun doute sur le fait qu’ils ne reculent pas devant les moyens de faire leur lobbying. Mais ça n’est pas une raison pour ne pas adopter une démarche rigoureuse d’analyse des études existantes. D’autant qu’il y a suffisamment de thèmes écolos pour lesquels on dispose de preuves solides (au hasard, le réchauffement climatique), je pense qu’on ne gagne rien à ne pas faire preuve de rigueur si l’on veut rester crédible dans ces combats.

    PS2 : pour les fans de méthodologie statistique, si vous prenez les chiffres du papier et que vous refaites les calculs, vous trouverez de légères différences. Par exemple si je prends les chiffre brut d’incidence globale du cancer entre le groupe de contrôle et le groupe glyphosate, je trouve 13% chez les utilisateurs de glyphosate et 16% chez les autres. Donc un risque relatif brut de 0.81, dans le sens de la réduction de l’incidence pour ceux qui utilisent le glyphosate ! Ce qui explique la différence, ce sont de petits effets liés au fait que les caractéristiques socio-démographiques ne sont pas parfaitement identiques. Pour compenser pour ces différences, on utilise une procédure statistique classique, on « contrôle » pour les facteurs comme l’âge, le tabagisme, etc. Cela permet de calculer un risque relatif corrigé, dans ce cas très proche de 1. Ce sont ces risques relatifs qui sont mentionnés dans le papier. Mais même sans cela, avec les chiffres bruts, on arrive à se faire une bonne idée. 

  • Thursday 02 November 2017 - 17:00

    La vidéo du jour parle d’un sujet qui me fascine depuis longtemps, la conscience. Et jamais je n’y serais arrivé sans l’aide de l’excellent Monsieur Phi !

    Contrairement à mon habitude, je ne vais pas ajouter trop de compléments dans ce billet, car beaucoup de choses sont déjà très bien traitées sur la chaîne du Sieur Phi, et je vous encourage à y aller pour regarder notamment sa série « Esprit & Matière ». Si vous souhaitez personnellement creuser la question, je vous recommande le livre que Thibaut m’a lui-même conseillé : Philosophie de l’esprit, de Jeagwon Kim.

    (D’ailleurs au passage, je suis toujours assez mal à l’aise avec la traduction « Esprit » pour le mot anglais « Mind »…mais que voulez-vous la langue de Shakespeare me semble plus riche de ce point de vue. En français, « esprit » fait tout de suite « esprit, es-tu là ? » ou « esprit sain », et est connoté d’une manière surnaturelle que n’a pas le mot anglais Mind…)

    Du coup le seul point sur lequel j’aimerai revenir, c’est ma vieille vidéo sur le libre arbitre, ma première (et malheureuse) tentative pour aborder un sujet à la frontière entre la science et la philosophie. Clairement s’il fallait refaire cette vidéo aujourd’hui, je m’y prendrais très différemment.

    En effet depuis, et grâce à mes lectures, j’ai compris une chose : la question du « libre-arbitre » (dans le sens usuel de ce mot) n’a de sens que dans une conception dualiste.

    Se poser la question du libre-arbitre, c’est se demander si un truc X possède une influence causale sur un machin Y. Et pour que cette question ait un sens, il faut :

    • Que X existe
    • Que Y existe
    • Que X soit différent de Y (autrement la question est triviale)

    Et donc la question du libre-arbitre me semble triviale, à moins d’être dualiste.

    Mais bon, fort de cet éclairage, je vous remets quand même cette vidéo que (de fait) je considère comme la plus ratée de mon répertoire !