Liste des conférences

du 13 mars 2006

 

 


Le co-auteur de "Intuitionnisme 84" n'a jamais prétendu être entièrement fidèle au programme de Brouwer. Il lui a suffi d'emprunter à ce dernier sa critique du formalisme d'Hilbert. D'autre part, par sa critique du platonisme, Harthong a semblé se rapprocher de l'idéalisme transcendental de Kant. Mais il était trop attentif à la marche historique de la science pour en rester là. Ses derniers travaux, plus inspirés que les précédents par les applications des mathématiques à la physique, reconnaissent un "bon positivisme" à côté d'un "mauvais", et font appel à une dialectique de l'objectivité et du sens. Ils rapprochent ainsi sa philosophie des mathématiques d'un "réalisme à visage humain", qui n'est autre qu'un pragmatisme savant.


L'analyse de la diffraction par des réseaux intéresse les physiciens depuis les années 1930. Elle a longtemps été le fait de physiciens brillants, qui ont dû contourner les problèmes mathématiques par de fines approximations, comme celle ayant donnée naissance à la célèbre théorie des ondes couplées. Au cours des années 1970, des travaux en France et aux Etats-Unis ont progressivement contribué à élaborer une théorie dite rigoureuse, plus mathématique.

Jacques Harthong a apporté sa pierre à l'édifice au cours des années 1990. Nous détaillerons comment il a notamment proposé une généralisation mathématique du problème au cas où le milieu diffractant n'est que localement périodique et comment il a montré que l'on pouvait appliquer la théorie des perturbations même à l'angle de Bragg.


 

En dépit de ses immenses succès manifestés par un nombre sans cesse croissant d'applications, la théorie quantique est restée mystérieuse au bout d'un siècle d'investigations : elle demeure, en effet, une théorie encore en quête de son objet ! La question de la véritable nature de l'objet quantique est progressivement devenue centrale au cours des discussions que Jacques Harthong et moi-même avons eues depuis l'époque où nous préparions nos thèses. Elle participe, en effet, de la réinterrogation constante par Jacques des concepts fondamentaux et des notions qui sous-tendent notre représentation mathématique du monde physique.

Je voudrais présenter d'une manière simple les idées nouvelles pour la solution du problème ci-dessus, qui sont le fruit de nos discussions, et qui concernent principalement les spécificités des probabilités et le rôle de l'invariance en physique quantique.


La question du devenir de l'informatique où les performances des ordinateurs sont multipliés par 2 tous les 18 mois suivant la loi de Moore et la taille des circuits qui diminue au point d'atteindre des dimensions microscopiques a amené en 1985 des physiciens comme Feynman et des mathématiciens comme Deutsch à définir le calcul comme un processus physique. Comme la description d'un système microscopique est fondée sur la mécanique quantique, il s'agit de voir si la mécanique quantique peut décrire le fonctionnement d'un ordinateur. Depuis quelques années, cette nouvelle approche a bénéficié de progrès importants tant dans le domaine théorique qu'expérimental. Après un rappel des conditions nécessaires à la réalisation d'un ordinateur quantique, nous nous interrogerons sur la possibilité d'utiliser un tube rempli d'eau comme une succession de qubits, modèle d'un ordinateur quantique unidimensionnel.


La communauté scientifique se targue souvent de disposer de procédure d'arbitrage qui lui permettent d'arriver sans trop de conflits (apparents...) à un consensus largement partagé sur la validité des résultats et la pertinence des orientations de la recherche. Bien des exemples récents de fraudes spectaculaires ou de dérapages insidieux montrent les limites de ces mécanismes.

Mais on peut se demander si, dans le contexte surinstitutionnalisé et hyperhiérarchisé de la technoscience contemporaine, ces procédures ne finissent pas par se ramener à ceci que la raison la meilleure est toujours celle du plus fort. Autrement dit, la question est de savoir si l'exigence d'efficacité et de rentabilité à court terme n'institue pas une orthodoxie qui obère la possibilité de développements inattendus à moyen terme.

Est-il encore possible de préserver au moins des zones d'investigation non-conventionnelles et de garantir un minimum de liberté spéculative à la recherche scientifique ?


En étudiant de manière approfondie avec J.F. Froger le concept de réalité concernant la physique des particules, nous avons abouti à une combinatoire qui met en évidence 576 constituants élémentaires, les syntagmons, à l'aide desquels on peut reconstruire les objets connus de la microphysique et d'autres qui ne le sont pas (encore).

En partant de la nomenclature de ces constituants, on montrera comment le Modèle Standard s'en trouve à la fois conforté et précisé dans les classifications qu'il comporte, mais aussi libéré dans ses aspects structurels du contexte quantique qui lui a donné naissance.


Dans cet exposé, outre la série mentionnée, on évoquera le problème de Rudin-Shapiro, le pliage de papier et la chaîne d'Ising.


Il y a déjà fort longtemps que Jacques Harthong et moi évoquions à Strasbourg quelques retombées concrètes de son idée qui consistait à considérer les nombres réels comme des halos de points entiers, vus de loin.

L'application de ce paradigme ainsi que les premiers travaux de l'équipe strasbourgeoise d'analyse non standard sur les équations différentielles ont éclairé différemment, et souvent de manière plus attrayante, un très grand nombre de questions mathématiques. L'attractivité était due non seulement aux algorithmes, simples et efficaces, que cet éclairage révélait mais aussi par la découverte que ceux-ci faisaient souvent partie de divers domaines scientifiques (principalement informatique) ou pour le moins y trouvaient une place naturelle.

La richesse de certains de ces secteurs méritait qu'on s'y attarde, ce qui était le cas par exemple, de la lecture de la linéarité avec les lunettes de J. Harthong : quels sont les concepts « entiers », i.e. arithmétiques qui décrivent au mieux les notions de linéarité entre les réels ? Réponse : les fractions continues dont la représentation est celle dite des « droites discrètes ».

Une Géométrie Discrète, dans un sens différent de celui qu'il possède encore en mathématique, émerge alors de cette définition et permet de résoudre bien des questions, mais en pose aussi beaucoup. Un nombre croissant d'applications et de travaux lui sont maintenant consacrés.

Le LLAIC consacre une bonne part de ses activités à ce sujet et certains seront évoqués, surtout ceux qui portent sur des questions de modélisation physique : radiosité et reconstruction tomographique.


Le travail présenté a été effectué par Jacques pour l'essentiel entre 1994 et 1997. Ce travail consiste en une analyse ab-initio de la photographie Lippmann et extension de cette approche à l'holographie couleur. Avec sa modestie coutumière, Jacques tenait toujours à préciser que la mise en oeuvre expérimentale a demandé « bien plus de temps, d'argent, et d'énergie » ; celle-ci sera cependant seulement évoquée, et rapidement.