QLog (Quantized Log)

Azur et Asmar

Classé dans : Arts — Sebastiao Correia 31 octobre 2006 @ 0:19
Imprimer ce billet Imprimer ce billet

Un superbe conte, à voir en famille :

Azur et Asmar – un film de Michel OCELOT

Ce conte souligne les points communs entre deux cultures (occidentale et moyen-orientale) en montrant leurs différences. De part et d’autre de la Méditerranée, la vie est vécue sensiblement de la même manière même si tout est différent. D’un côté, les djinns, de l’autre les elfes ; d’un côté les babouches, de l’autres les sabots ; d’un côté des épices, de l’autre la moutarde ; d’un côté les chats noirs, de l’autre les yeux bleus…

La liste de ces ressemblances est longue et n’en connaître qu’un côté est réducteur et dangereux. Comme le dit Jenane, « je connais deux pays, deux langues, deux religions ! J’en connais deux fois plus que les autres. »

La haine de l’Autre, la crainte de l’Autre viennent de la méconnaissance de l’Autre. Apprenez à vous connaître.

Théorie de la Complexité

Classé dans : Informatique — Sebastiao Correia 30 octobre 2006 @ 23:30
Imprimer ce billet Imprimer ce billet

Un livre en ligne sur la théorie de la complexité :

Complexity Theory: A Modern Approach / Sanjeev Arora and Boaz Barak

avec un chapitre sur le calcul quantique.
Voici la table des matières :

Part I: Basic Complexity Classes

  1. The computational model – and why it doesn’t matter. Definition of Turing machine, efficient universal TM, the class P.
  2. NP and NP completeness. NP, Cook-Levin Theorem, NP-completeness, search vs. decision.
  3. Space Complexity PSPACE, L, NL. TQBF is PSPACE complete, Savitch’s Theorem, Path is NL-complete, NL=coNL.
  4. Diagonalization Time, Non-deterministic time, and space hierarchy theorems, Ladner’s theorem, oracle machines and proof that relativized methods can’t resolve P vs. NP.
  5. The polynomial hierarchy and alternations. Definitions of PH via alternating quantifiers and alternating machines, conjecture it doesn’t collapse, time-space tradeoffs for SAT.
  6. Circuits. Boolean circuits and the class Ppoly. Definition using advice. Karp-Lipton theorem. Non-uniform hierarchy theorem. circuit-satisfiability and alternative proof for Cook-Levin theorem.
  7. Randomized Computation BPP, RP, coRP, ZPP. Examples of probabilistic algorithms. Error reduction via repetition. BPP in P/poly and PH. Randomized reductions, randomized logspace algorithms.
  8. Complexity of Counting #P. #P-completeness and Valiant’s theorem. Toda’s theorem.
  9. Interactive Proofs IP, AM. Graph non-isormorphism in AM. IP=PSPACE.
  10. Cryptography One-way functions, pseudorandom generators: prediction vs. distinguishing. Goldreich-Levin theorem. Zero knowledge and ZK proof for graph isomorphism. Overview of advanced topics in cryptography.

Part II: Lower bounds for concrete computational models

  1. Decision Trees certificate complexity, randomized complexity, sorting lowerbounds
  2. Communication Complexity Lowerbound methods (fooling set, rank, tiling, discrepancy), multiparty communication complexity
  3. Circuit lowerbounds. Hastad switching lemma, lowerbounds for monotone circuits, frontier of circuit lowerbounds, approaches using communication complexity.
  4. Algebraic complexity Algebraic trees and circuits, Blum-Shub-Smale model.

Part III: Advanced Topics

  1. Average Case Complexity: Levin’s Theory DistNP and its complete problems.
  2. Random and pseudorandom walks on graphs second eigenvalue and analysis of random walks, expander graphs, zig-zag construction of expanders, reingold’s deterministic logspace algorithm for undirected connectivity.
  3. Derandomization and Extractors Pseudorandom generators from average-case hardness – the NW generators. Extractors from hash functions. Trevisan’s extractor from NW.
  4. Hardness amplification and error correcting codes Worst-case to average case reduction. Error correcting codes. Pseudoarndom generators from worst-case assumptions. List decoding and its use for hardness amplification.
  5. PCP and hardness of approximation. NP in PCP(poly,1). The PCP theorem (Dinur’s proof). Independent set is hard to approximate within a polynomial factor.
  6. More PCP Theorems and the Fourier Transform Technique Fourier transforms over GF(2)^n. Analysis of linearity testing. Hastad’s 3-query PCP, 3SAT is hard to 7/8+epsilon approximate. Learning fourier coefficients (Goldreich-Levin / Kushilevits-Mansour)
  7. Quantum Computation Quantum computation and the class QBP. Shor’s factoring algorithm.
  8. Logic in complexity theory Proof complexity.
  9. Why are circuit lower bounds so difficult? Natural proofs.

Qui veut gagner des millions

Classé dans : Incultissime — Sebastiao Correia 20 octobre 2006 @ 21:59
Imprimer ce billet Imprimer ce billet

Tout le monde connaît cette émission dans laquelle Jean-Pierre Foucault pose des questions de plus en plus difficiles en partant des plus stupides. Ici, c’est une question à 3000 euros, donc pas difficile me direz-vous. Eh bien jetez donc un oeil sur cet extrait et vous pourrez constater l’efficacité du « lavage de cerveaux » de TF1.
Copernicus who? « physics musings

Je suis scandalisé ! abasourdi !
Aurait-on eu le même résultat au Moyen-Age ?

9 formulations de la mécanique quantique

Classé dans : quantique — Sebastiao Correia 18 octobre 2006 @ 23:27
Imprimer ce billet Imprimer ce billet

« Nine formulations of quantum mechanics » de D. F. Styer et al. dans American Journal of Physics — March 2002 — Volume 70, Issue 3, pp. 288-297.Voici un article qui présente brièvement et pédagogiquement 9 formulations de la mécanique quantique (et non ses interprétations, la nuance étant que les formulations sont différentes approches mathématiques alors que les interprétations sont plus du point de vue conceptuel). On pourra trouver l’article ici (si le lien est toujours valide).

Je note ici les points essentiels de chaque formulation. Cependant, l’article donne en plus les références incontournables et également les références historiques. Pour chaque formulation, les auteurs s’attachent également à considérer comment se différencient les bosons des fermions, ce dont je ne parlerai pas dans ce post.

  1. La formulation matricielle de Heisenberg. C’est la formulation dans laquelle les observables sont représentées par des matrices (aussi appelées « opérateurs »). Les valeurs propres des matrices correspondent aux valeurs mesurables dans les expériences. Les états quantiques sont des vecteurs indépendant du temps. La dépendance temporelle est portée par les opérateurs. Cette formulation est très pratique pour résoudre les problèmes d’oscillateurs harmoniques et de moments angulaires.
  2. La formulation de la fonction d’onde de Schrödinger. Le concept important n’est plus la quantité mesurable, mais l’état quantique qui est une fonction complexe dans un espace de configuration à 3 dimensions (pour 1 particule). Contrairement à ce que souhaitait Schrödinger, la fonction d’onde n’a pas d’existence réelle ; elle est principalement un outil de calcul des probabilités des observations possibles. La dépendance temporelle est portée par la fonction d’onde, et non plus par les opérateurs. C’est la formulation la plus courante de la mécanique quantique.
  3. La formulation de l’intégrale de chemin de Feynman. Le concept important n’est plus l’état mais la probabilité de transition entre un état initial et un état final. Dans cette formulation, on énumère tous les chemins possibles permettant de passer de l’état initial à l’état final. A chaque chemin est affectée une « amplitude » de probabilité. Le module carré de la somme sur tous les chemins de ces amplitudes donnent la probabilté de transition recherchée. Cette formulation est loin d’être pratique à utiliser sauf dans les simulations de Monté-Carlo de systèmes quantiques.
  4. La formulation de la distribution de (quasi-)probabilité dans l’espace des phases de Wigner. Le concept central est la distribution de l’espace des phases notée W(x,p,t) qui remplace la fonction d’onde. Cette distribution offre l’avantage d’être purement réelle (contrairement à la fonction d’onde qui est complexe) et de donner facilement la densité de probabilité de la position ou de l’impulsion par simple intégration. Mais ce n’est pas une densité de probabilité dans l’espace des phases car elle peut prendre des valeurs négatives. Elle n’est pas non plus la façon la plus économique d’enregistrer de l’information sur l’état quantique. Son utilisation est essentiellement en optique quantique. Elle est très utile pour considérer la limite classique.
  5. La formulation de la matrice densité (ou opérateur densité). Cette formulation est particulièrement performante lorsqu’il s’agit de travailler avec des états mixtes (faisant intervenir des mélanges statistiques d’états quantiques). La fonction d’onde ne permet de représenter simplement des mélanges statistiques d’états. La matrice densité est toujours hermitienne. Les calculs de moyenne d’opérateurs se font à l’aide de la formule de trace. Comme la distribution de Wigner, la matrice densité est coûteuse en termes de stockage d’information sur l’état quantique. Néanmoins, elle trouve des applications dans plusieurs domaines de la physique et en particulier en physique quantique statistique.
  6. La formulation de la seconde quantification (ou formalisme du nombre d’occupation). Dans cette formulation en étroite relation avec la théorie quantique des champs, le concept central est celui d’opérateur de création et d’annihilation de particule. Cette formulation est fondamentale pour l’étude des systèmes à plusieurs particules. Les opérateurs agissent sur un état de vide quantique de particule et permettent la création de particules à partir du vide ou la destruction de particules existantes.
  7. La formulation variationnelle. Elle s’inspire du principe de Hamilton (principe de moindre action) de la physique classique. Le concept ici est la fonction d’onde qui minimise l’intégrale d’action sur le temps et l’espace de configuration. Ce critère de minimisation est équivalent à l’équation de Schrödinger. Cette formulation est un outil puissant pour étendre la physique à de nouveaux domaines.
  8. La formulation de l’onde pilote de de Broglie-Bohm. Cette formulation propose une description corspuculaire des particules dans l’espace physique et en même temps utilise une fonction d’onde (l’onde pilote) dans l’espace des configurations qui contraint le mouvement des particules. Les équations du mouvement font apparaître une énergie potentielle d’origine purement quantique : le potentiel quantique. Ce potentiel est le responsable des phénomènes quantiques. Cette formulation n’est pas simple d’utilisation mais elle offre une vision proche de la physique classique.
  9. La formulation de Hamiton-Jacobi. Dans cette formulation, un changement adéquat de variable permet d’écrire les équations du mouvement avec l’ensemble de variables dites d’action et d’angle. La formulation de la mécanique quantique sous cette forme est récente (1983) et est due à R. Leacock et M. Pagdett. Le concept central est la fonction principale de Hamilton S(x,t). Cette approche permet d’obtenir des valeurs propres de l’énergie sans recourir aux vecteurs propres, très utile dans les problèmes d’états liés.

Ces différentes approches formulent de manière différente l’étrangeté de la mécanique quantique, mais aucune ne peut l’éliminer.

Un mot sur les interprétations :

  • Il y a l’interprétation des mondes multiples d’Everett dans laquelle toutes les histoires existent en parallèle, mais seule une histoire nous concerne. C’est probablement l’interprétation la plus naturelle lorsque l’on part de la formulation de Schrödinger. Ce qui ne veut pas dire selon moi que c’est l’interprétation qui a le plus de sens.
  • Il y a aussi l’interprétation transactionnelle de Cramer dans laquelle à la fois sources et détecteurs de particules émettent une onde (retardées et avancées). Les interférences destructives assurent que la particule arrive sur le détecteur après avoir quitté la source. Cette interprétation que je connais très peu permettrait de mieux visualiser des processus quantiques complexes et d’analyser rapidement des situations autrement paradoxales.
  • La théorie de la fonctionnelle densité de Hohenberg et Kohn est un outil très puissant pour traiter les états fondamentaux de systèmes complexes en matière condensée et en chimie.
  • La théorie de la décohérence s’attache à expliquer pourquoi le monde macroscopique n’est pas quantique.
  • Les histoires consistentes de Griffiths sont une autre interprétation.
  • La localisation spontannée continue étudie l’effondrement de la fonction d’onde en modifiant l’équation de Schrödinger.

De la musique quantique

Classé dans : Arts, quantique — Sebastiao Correia @ 1:27
Imprimer ce billet Imprimer ce billet

A découvrir :

The Music of the Quantum

Une composition de Jaz Coleman jouée en mars 2003 à New York.

La musique idéale pour lire de la physique quantique ;-)

Sur le site, vous pouvez écouter le concert et même visionner des vidéos : sélectionnez le lien « The music of the quantum ».

Mécanique quantique : Mythes et faits

Classé dans : quantique — Sebastiao Correia 14 octobre 2006 @ 17:43
Imprimer ce billet Imprimer ce billet

Dans cet article, Nikolic passe en revue les assertions les plus courantes au sujet de la mécanique quantique qui n’ont pas de justification solide :
[quant-ph/0609163] Quantum mechanics: Myths and facts

L’article est très pédagogique et donne une centaine de références pour approfondir les différents sujets abordés.

Sans rentrer dans le détail, je résume les mythes « révélés » dans ce papier ci-dessous :

  • La dualité onde-corpuscule. Il n’y a pas en fait de dualité onde-corpuscule. La mécanique quantique a des aspects ondulatoires la plupart du temps et corpusculaires dans certains cas, sans pour autant être complètement décrite ni par l’une ni par l’autre des théories classiques. Pour Nikolic, la physique classique n’est qu’une approximation de la mécanique quantique (ce qui à mon avis est aussi un mythe). Et l’interprétation bohmienne de la mécanique quantique est la seule à offrir une sorte de vraie dualité onde-corpuscule.
  • La relation d’incertitude temps-énergie. En mécanique quantique, les relations d’incertitude se déduisent des relations de commutation des opérateurs. Le temps, lui, n’est pas un opérateur comme c’est le cas pour la position et l’impulsion par exemple. Et le théorème de Pauli, en interdisant le remplacement du temps par un opérateur, rend impossible la construction d’une relation d’incertitude temps-énergie. Busch a tenté de modifier des axiomes de la théorie quantique pour pouvoir introduire une relation de commutation entre un opérateur temps et le hamiltonien (opérateur énergie). Cependant, il semble qu’il y ait un contre-exemple (théorique) à la relation d’incertitude temps-énergie (article de Aharonov-Bohm de 1961).
  • La mécanique quantique implique une nature fondamentalement aléatoire. Cette assertion est liée au problème des théories à variables cachées. Même le théorème de Bell qui exclue une partie des théories à variables cachées, n’exclue pas qu’il puisse exister des théories à variables cachées déterministes capables de rendre compte des phénomènes quantiques. C’est d’ailleurs le cas avec la théorie de Bohm.
  • Il n’y a pas de réalité en dehors de la réalité mesurée. Les variables classiques discrètes peuvent être représentées par un formalisme probabiliste équivalent au formalisme quantique à l’aide des nombres complexes, de vecteurs et de matrices. Cependant, dans cette reformulation de la physique classique, les matrices ne représentent pas des quantités physiques, mais des opérateurs décrivant des transformations. Au contraire, pour la physique quantique, les matrices ont un double rôle d’opérateurs et de variables physiques. Du fait de la non commutativité entre certains opérateurs, la mesure simultanée de variables physiques (opérateurs) est soumise à conditions. En particulier, les mesures dépendent du contexte expérimental. Et des théorèmes comme les inégalités de Bell montrent qu’il n’y a pas de théorie non contextuelle ou non locale qui puisse rendre compte des expériences EPR. Le raisonnement classique qui attribue des valeurs bien déterminées aux variables physiques indépendamment du contexte n’est pas applicable en mécanique quantique. Le résultat de Hardy le montre d’une manière très simple avec 2 particules intriquées (voir les équs 43 à 46). Les solutions envisagées par les physiciens pour résoudre ce paradoxe sont diverses, mais aucune n’est encore vraiment complètement satisfaisante. Parmi elles, il y a :
    • la logique quantique, mais la déviation par rapport à la logique classique est considérée trop importante,
    • la notion de variable préférée : toutes les observables n’ont pas nécessairement de réalité physique. Certaines variables seulement doivent être considérées comme étant réelles. Cette solution peut être valable dans certains cas (par ex. la position peut être considérée plus physique que l’impulsion qui est souvent déduite de mesures de positions), mais elle n’est certainement pas valable pour toutes les situations rencontrées en mécanique quantique.
    • la contextualité : là, il y a deux comportements distincts. Le premier est l’interprétation orthodoxe dans sa déclinaison dure, qui prétend qu’il n’y a pas de sens à donner des valeurs à des quantités non mesurées. Dans sa déclinaison moins radicale, l’interprétation orthodoxe laisse une porte ouverte à l’existence de valeurs pour des variables non mesurées, mais s’interdit d’en parler. Le deuxième comportement est l’approche suggérée par les théories à variables cachées, à savoir que la mécanique quantique ne donne pas une description complète de la réalité. Les théorèmes à la Bell n’interdisent pas en effet toutes les théories à variables cachées, mais seulement les théories locales naïves. L’interprétation orthodoxe dure se décline encore en plusieurs branches :
      • le concept d’information sur la réalité serait plus important que celui même de réalité
      • la réalité est relative ou relationnelle
      • des corrélations entre variables existent même si les variables elles-mêmes n’existent pas.
    • Concernant les théories à variables cachées, l’interprétation proposée par Bohm combine la possibilité d’existence de variables préférées (la position) et l’existence de variables cachées (la position même lorsqu’elle n’est pas mesurée). Nikolic semble montrer ici un penchant pour cette théorie.
  • La mécanique quantique est locale/non locale. Il est communément admis que la mécanique classique est locale. Par contre, le cas de la mécanique quantique est moins clair. Un principe de localité est souvent utilisé pour réfuter les théories à variables cachées. Tout d’abord, ce principe n’est qu’une hypothèse. Ensuite, contrairement à ce que prétendent certains, la non-localité ne contredit pas nécessairement la théorie de la relativité. Enfin pour Nikolic, la communication instantanée (plus vite que la vitesse de la lumière) n’est pas exclue par la théorie de la relativité comme le montre la théorie des tachyons (particules encore hypothétiques ayant une vitesse supraluminique). Selon certains physiciens, la communication supraluminique ne contredit pas le principe de causalité. Cela aussi serait donc un mythe. Les expériences de type EPR font pencher la balance vers une mécanique quantique non locale (les corrélations entre sous-systèmes sont non locales). Il existe cependant des physiciens qui vont jusqu’à nier l’existence d’une réalité pour maintenir le principe de localité.
  • Il existe une mécanique quantique relativiste bien définie. L’équation de Klein-Gordon (généralisation relativiste la plus simple de l’équation de Schrödinger) pose de gros problèmes d’interprétation. En particulier, le module carré de la fonction d’onde qui était interprétée comme une probabilité en mécanique quantique non relativiste ne peut plus l’être dans ce formalisme. Et ce même en restreignant les solutions à des valeurs positives de la fréquence. L’équation de Dirac n’a pas de problème d’interprétation en terme de probabilités, mais elle est limitée à la description des particules de spin 1/2, l’équation de Klein-gordon décrivant les particules de spin 0 et les équations de Maxwell celles de spin 1. Les équations de Maxwell ont aussi un problème d’interprétation du même type que les équations de Klein-Gordon.
  • La théorie quantique des champs résoud le problème de la mécanique quantique relativiste. La méthode de la seconde quantification donne le statut d’opérateur à la fonction d’onde. Les coefficients a_k du développement de Fourier de la fonction d’onde sont des opérateurs et leurs relations de commutation sont postulées. En théorie quantique des champs, le concept essentiel n’est plus la fonction d’onde mais l’opérateur de champs défini à partir de l’opérateur fonction d’onde et son hermitique conjugué Equ. (76). Là encore, les relations de commutation de ces opérateurs sont postulées (mais de celles-ci on peut maintenant déduire celles sur les a_k). La théorie quantique des champs semble donc ne faire que repousser le problème plus loin, sans le résoudre vraiment.
  • La théorie quantique des champs est une théorie des particules. La théorie quantique des champs ne tranche pas sur la question de savoir si le monde est formé de particules ou de champs. Il se pourrait même que ce soit ni l’une ni l’autre solution, mais des cordes (theorie des cordes).
  • L’entropie d’un trou noir est proportionnelle à sa surface. En physique classique, l’entropie en tant que quantité extensive est proportionnelle au volume plutôt qu’à la surface. En théorie classique de la gravité, les 4 lois de la thermodynamique classique ont leur équivalent pour les trous noirs. Cependant, ces lois pour les trous noirs ne sont que des analogies et n’ont pas encore de dérivation à partir d’une formulation microscopique. C’est ce que cherchent les différentes approches de gravité quantique.

Ordres de grandeur

Classé dans : Physique — Sebastiao Correia 11 octobre 2006 @ 23:23
Imprimer ce billet Imprimer ce billet

En vrac, quelques grandeurs extraites du dossier n° 53 de Pour la Science sur la lumière :

  • 98%, c’est le rendement qu’ont les lucioles lorsqu’elles produisent de la lumière par chimiluminescence (presque chaque molécule du réactif chimique produit un photon).
  • 2 * 10^22 électrons, c’est la quantité d’électrons fournis par une pile LR03 (AAA), ce qui correspond à une charge d’un ampère-heure.
  • 300 kW, c’est la puissance fournie par une mole (6.02 * 10^23) de photons par seconde.
  • 1kW / m^2, c’est la puissance de la lumière du soleil au sol par mètre carré.
  • Entre 10 et 50, c’est le nombre de photons reçu par une cellule visuelle de l’oeil qui observe une étoile de magnitude 6^9.
  • 6, c’est la magnitude apparente des étoiles les plus faibles visibles à l’oeil nu.
  • 3 photons sur une cellule visuelle de l’oeil suffisent à produire un influx nerveux.
  • 0.5 picoampère, c’est l’intensité du signal électrique induit par un photon sur une cellule visuelle.
  • 20, c’est le nombre de photons par seconde envoyés dans les expériences d’interférométrie quantique.
  • 2.4, c’est l’indice de réfraction du diamant (un des plus élevés).
  • 0.2 mm *0.05 mm, c’est la taille actuelle d’un condensat de Bose fait avec des atomes de Sodium.
  • 54 km/h, c’est la vitesse de la lumière traversant un condensat de Bose d’atome de Sodium.

Rappels succincts sur la théorie de Bohm

Classé dans : quantique — Sebastiao Correia 9 octobre 2006 @ 23:25
Imprimer ce billet Imprimer ce billet

Ici, je reprends juste les quelques lignes développées dans l’article de Nikolic.

Une équation ressemblant à l’équation de Schrödinger peut être retrouvée à partir d’une description de mécanique statistique classique. Deux ingrédients sont nécessaires :

  1. la loi de conservation locale des probabilités, Equ. (14),
  2. l’écriture de la vélocité selon la formulation de Hamilton-Jacobi, Equs (15) et (16)

Seulement, cela ne signifie pas que l’équation de Schrödinger est classique. D’une part, cette équation possède un terme supplémentaire par rapport à l’équation de Schrödinger, une sorte de potentiel quantique ; d’autre part, l’équ. (15) qui exprime le fait que la vélocité est déterminée à chaque fois que la position l’est, est nécessaire pour avoir une description complète et déterministe du système classique.

Les aspects positifs du principe d’incertitude de Heisenberg

Classé dans : quantique — Sebastiao Correia 1 octobre 2006 @ 17:33
Imprimer ce billet Imprimer ce billet

P. Busch, T. Heinonen et P. Lahti proposent un article de revue sur le principe d’incertitude de Heisenberg.

Pour rappels, le principe d’incertitude s’énonce en général de l’une des manières suivantes :

  1. Il n’est pas possible de préparer un état quantique pour qui aura à la fois une position et une impulsion précises,
  2. Il n’est pas possible d’obtenir la position et l’impulsion d’une particule par des mesures effectuées à la suite l’une de l’autre.
  3. La position et l’impulsion ne peuvent pas être mesurées en même temps.

Ces énoncés évoquent tous une limitation de la physique quantique par rapport à la physique classique pour laquelle il est possible de faire des mesures aussi précises que l’on veut de la position et de l’impulsion des particules. Toutes les formulations du principe d’incertitude impliquent qu’il n’existe pas de mesure sans perturbation.
Plutôt que de voir ce principe comme une limitation, les auteurs formulent 3 énoncés qui le présentent de façon positive :

  1. Il est possible de préparer des états quantiques pour lesquels la position et l’impulsion prennent des valeurs « imprécises » (unsharp) avec des degrés d’imprécision satisfaisant une relation exprimant un compromis,
  2. La perturbation mutuelle des mesures de position et d’impulsion effectuées à la suite l’une de l’autre, peut être contrôlée à l’aide d’une relation appropriée de compromis entre la précision d’une mesure et la perturbation de l’autre,
  3. Il est possible d’obtenir des mesures conjointes approximatives de la position et de l’impulsion avec des précisions satisfaisant une relation appropriée de compromis.

Plusieurs théorèmes sont ensuite démontrés. En particulier, concernant le point 1, il est montré que

p_Q(X) + p_P(Y) <= 1+sqrt a_0

si p_Q(X) (resp. p_P(Y)) est la probabilité que la position (resp. l’impulsion) soit dans l’intervalle X (resp. Y). On a a_0 <= {X.Y}/h, h étant la constante de Planck et X.Y étant la taille de la cellule dans l’espace des phases dans laquelle se trouve la particule. Ce théorème est une conséquence des résultats classiques des transformations de Fourier.
Au lieu de se contenter de cette formule, on peut aussi poser la question réciproque de calculer la plus petite cellule de l’espace des phases que l’on peut trouver si l’on se donne des niveaux de probabilité de trouver la position et l’impulsion dans les intervalles X et Y respectivement.

Concernant le point 2, Werner a exprimé le degré de perturbation lors de mesures séquentielles, d’une façon complètement générale en faisant intervenir la distance entre 2 observables définies sur l’espace des phases. Le théorème de Werner pose que pour 2 observables marginales E_1 et E_2 d’une observable G sur l’espace des phases,

d(E_1, Q).d(E_2,P) >= Ch/{2pi} » title= »d(E_1, Q).d(E_2,P) >= Ch/{2pi} »/>,</p>
<p>où <img src= vaut environ 0.3047.

Dans le paragraphe 3.4, les auteurs remarquent que la quantification de l’erreur et de la perturbation engendrées par la mesure est traditionnellement modélisée d’après un raisonnement classique. Et bien que Appleby et Ozawa aient introduit des relations d’incertitude en termes de mesures d’erreur classique, la signification opérationnelle de ces relations n’est pas claire. L’erreur et la perturbation classique contiennent toutes deux un terme de bruit — équ. (38), bien défini, mais elles contiennent également un terme qui n’a pas de sens bien défini opérationnellement — équ. (39). Ce dernier terme fait intervenir l’espérance du carré de la différence entre 2 opérateurs qui peuvent ne pas commuter.

Enfin, pour le point 3, bien que les opérateurs de position et d’impulsion ne commutent pas, des fonctions de la position et de l’impulsion peuvent commuter sous certaines conditions de périodicité (Théorème 5). Ces fonctions permettent de modéliser des situations en physique du solide où un électron dans un cristal peut être arbitrairement proche des atomes et avoir en même temps une impulsion précise.

Mais le point 3 peut aussi être valable dans des situations plus générales. C’est ce que montre le théorème 7 qui dit qu’une position approximative et une impulsion approximative peuvent être mesurées conjointement si et seulement si elles ont une observable covariante de l’espace des phases.

Les expériences.

Le dernier paragraphe se penche sur les expériences et tests du principe d’incertitude.

Il apparaît que les expériences sont peu nombreuses, même encore aujourd’hui. Les quelques expériences rapportant une confirmation du principe d’incertitude en rapport avec le point 1 sont des expériences de diffraction et d’interférences avec des neutrons ou d’autres particules comme dans l’expérience de l’équipe de Zeilinger avec des molécules de fullerène. Mais ces expériences ne constituent pas des tests directs du principe d’incertitude concernant la position et de l’impulsion. Elles utilisent une description approximative de la fonction d’onde à l’infini (équivalente à la diffraction de Fraunhofer en optique classique). Ainsi, ce qui est testé est une relation d’incertitude découlant du lien par la transformation de Fourier de la position et de l’impulsion et de l’équation d’évolution de Schrödinger libre.

Concernant le point 2, les expériences étudiant la relation imprécision et perturbation de la mesure sont les moins développées. Mais cela s’explique par le fait que les théories vraiment opérationnelles sont encore récentes.

Pour le point 3, il ne semble pas y avoir d’expérience réalisant une mesure conjointe de la position et de l’impulsion. Il existe par contre des expériences d’optique réalisant des mesures conjointes d’observables incompatibles autres que la position et l’impulsion.

Les opposants au principe d’incertitude

En 1970, Ballentine était arrivé à la conclusion qu’une description des mesures conjointes de la position et de l’impulsion en termes de probabilités jointes ne pouvait se faire qu’en étendant la théorie existante. C’est ce qu’ont fait les auteurs de l’article avec l’introduction des opérateurs de mesure positifs et des observables de l’espace des phases.

Une autre catégorie d’opposants prétend que les mesures conjointes sont possibles avec une précision aussi grande que l’on veut. Parmi eux, il y a Popper et Margenau. En 1934, Popper avait conçu une procédure de mesure conjointe sur des paires de particules intrinquées (entangled). Mais von Weizsäcker a rapidement montré l’erreur faite par Popper qui l’a reconnue ensuite. Pour Popper, sa proposition aurait pu ensuite inspirer le fameux article EPR.

Dans les expériences proposées par les opposants, la mesure de l’impulsion est faite en général à partir de la détermination de deux positions. Mais ce type de mesure est dictée seulement par le raisonnement classique et n’a pas de signification opérationnelle.

Plus tard, Popper a proposé une autre expérience de pensée pour mettre en défaut le principe d’incertitude. Kim et Shih ont implémenté la réalisation expérimentale et ont obtenu des résultats controversés. Au final, il semblerait que le principe d’incertitude n’est pas violé (Voir Qureshi entre autres).