Séminaire Probabilités, décision, incertitude : 2012-2013

Séminaire Probabilités, Décision, Incertitude : Steeves Demazeux

French
Friday 19 October 2012 - 14:00 to 16:00
IHPST - Salle de conférence

La catégorie d’ « état mental à risque » dans les programmes de prévention de la schizophrénie

Depuis le début des années 1990 ont fleuri, d’abord en Australie, aux États-Unis, puis dans de nombreux pays du monde, de nouveaux centres d’intervention précoce sur la schizophrénie. Il s’agit de promouvoir une forme originale de prévention ciblée sur les individus à risque de déclencher une schizophrénie, dans le but de diminuer l’incidence de la maladie (ce que les épidémiologistes appellent une approche de prévention secondaire), sinon à défaut sa morbidité (prévention tertiaire). Ces programmes de détection et d’intervention précoce, parfois couplés avec des essais pharmacologiques de traitements par psychotropes des adolescents à risque, soulèvent beaucoup de débats et de critiques à l’intérieur même du champ de la psychiatrie.Dans cet exposé, je propose une analyse de la catégorie d’ « état mental à risque » qui est centrale dans ces programmes. Je montre comment cette catégorie est construite, et comment le risque est mesuré. Je mets ensuite en évidence ses affinités et ses différences par rapport à d’autres catégories du même champ de la prévention de la schizophrénie, comme ceux de « prodrome », de « ultra haut risque », et de « groupe de vulnérabilité », pour mieux en relever les ambiguïtés définitionnelles. L’enjeu de mon argumentation sera de soulever le problème, bien connu des épidémiologistes, de la « privatisation du risque » qui constitue le danger de ce type d’approche préventive, au sens où un risque statistique populationnel est interprété comme un facteur de risque individuel.

Séminaire Probabilités, Décision, Incertitude : Nadine de Courtenay & Fabien Grégis

French
Friday 9 November 2012 - 14:00 to 16:00
IHPST - Salle de conférence

Le Guide pour l'expression de l'incertitude de mesure (GUM) : un terrain de discussion entre fréquentistes et bayésiens

Une maîtrise de tous les facteurs conceptuels et expérimentaux intervenant dans un processus de mesure étant impossible, aucun résultat de mesure ne peut être considéré comme complet s’il n’est accompagné de la mention de son incertitude. Seule l’évaluation quantitative de cette incertitude permet en effet de détacher un résultat de mesure du contexte expérimental particulier dans lequel il a été obtenu afin de le comparer à d’autres résultats, à des prédictions théoriques, ou encore à des spécifications techniques. Cependant, les décisions prises sur la base de ces mesures (accord ou désaccord, acceptation d’une hypothèse ou d’un produit industriel) ne peuvent avoir le même sens pour tous que si les incertitudes sur lesquelles elles se fondent sont définies, calculées et interprétées de la même manière. 

Rédigé à l’initiative du Bureau international des poids et mesures (BIPM), le Guide pour l’expression de l’incertitude de mesure (GUM), publié en 1993, énonce un ensemble de règles générales qui vise à uniformiser l’évaluation des résultats de mesure et de leur incertitude associée sur des bases probabilistes. Les recommandations du GUM ont cependant très vite été critiquées pour leur inconsistance car elles conduisent à juxtaposer interprétations fréquentiste et bayesienne des probabilités. Une approche entièrement bayesienne de l’incertitude de mesure a été avancée afin d’éliminer ces inconsistances mais elle est loin de faire l’unanimité parmi les métrologues.

Après avoir exposé les différences majeures qui séparent les traitements fréquentiste et bayesien des incertitudes de mesure du point de vue de leur signification et de leur calcul, nous analyserons le retentissement du tournant épistémique du GUM sur certains concepts centraux de la théorie de la mesure (erreurs, grandeurs, valeur vraie, validité) et les questions philosophiques qui en découlent. Nous essayerons notamment de montrer comment les débats qui divisent les métrologues sur la meilleure façon de fixer les critères d’acceptabilité de nos énoncés théoriques et pratiques pourraient éclairer le développement de l’épistémologie sociale.

Séminaire Probabilités, Décision, Incertitude : Jean-Paul Delahaye

French
Friday 14 December 2012 - 14:00 to 16:00
IHPST - Salle de conférence

Nous recevons Jean-Paul Delahaye (LIFL, UMR-CNRS 8022) sur le sujet : "Trois sortes de hasard".

Produire du hasard avec un ordinateur est utile pour la programmation des jeux, pour réaliser des simulations, et pour toutes sortes d'autres choses encore : images, tests, codes secrets, etc. C'est difficile et de nombreux pièges persistent malgré plus de cinquante ans de travaux sur le problème. En cryptographie les exigences sont différentes de celles rencontrées en modélisation, mais des progrès récents ont eu lieu qui nous font mieux comprendre le hasard en général et comment l'obtenir et l'approcher. Une troisième sorte de hasard a aussi été identifiée grâce à la théorie de la complexité (de Kolmogorov) et à l'informatique théorique. Ce troisième hasard qui est celui qu'on trouve dans les décimales du nombre oméga de Chaitin, il est particulièrement troublant et presque paradoxal du fait de ses liens avec les aspects les plus profonds de la logique mathématique (incompéltude de de Gödel, indécidabilité de Turing).

Séminaire Probabilités, Décision, Incertitude : Jean-Jacques KUPIEC

French
Friday 1 February 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Jean-Jacques KUPIEC (Centre Cavaillès, ENS-Ulm)présentera une conférence sur : "Les conséquences de l'expression stochastique des gènes"

Il est démontré que l'expression des gènes est un phénomène stochastique. Dans la mesure où la biologie a toujours été dominée par des théories déterministes en ce qui concerne le fonctionnement interne des êtres vivants, il s'agit là d'une découverte considérable dont les conséquences doivent être évaluées. Sur la base de travaux expérimentaux et théoriques, je soutiens qu'elle ne peut ne peut être réduite à une simple marge de fluctuation dans la réalisation d'un programme génétique ou d'un réseau de gènes. Au contraire, elle implique la dissolution de ces deux notions et un réaménagement théorique de grande ampleur en biologie.

Séminaire Probabilités, Décision, Incertitude : Laurent JODOIN

French
Friday 29 March 2013 - 14:00 to 16:00

Présentation de Laurent JODOIN (IHPST/Université de Montréal).

Dans la seconde moitié du XIXème siècle, près de deux cents ans après la première théorisation des probabilités, les travaux de Maxwell et Boltzmann annonçaient la mécanique statistique. La probabilité y est considérée comme la probabilité qu’un système, présentant certaines caractéristiques macroscopiques observables, soit dans un certain état microscopique inobservable – on peut alors parler de probabilité d’être. Quelques décennies plus tard, les travaux de Planck puis de Schrödinger et de Heisenberg ouvraient la voie à la mécanique quantique. La probabilité est alors considérée comme une probabilité de mesure d’un état à partir d’une fonction d’onde censée représenter l’état du système et gouvernée par la dynamique de l’équation différentielle dépendante du temps de Schrödinger – on peut alors parler de probabilité de devenir. Dans le premier cas, le déterminisme n’est pas remis en cause de front, car la dynamique ‘sous-jacente’ et inobservable du vaste microsystème peut très bien (et est sans doute) gouvernée par les équations déterministes de la mécanique newtonienne. Dans le second cas, en revanche, l’indéterminisme peut prendre plusieurs formes, mais il est généralement associé à la probabilité d’un événement conditionnel à l’occurrence d’une certaine procédure (de mesure) dans un certain état ; voire même, l’état du système mesuré ne serait qu’un ensemble de fonctions de probabilité. Or, ces deux conceptions ne sont pas nécessairement incompatibles ou contradictoires. Je soutiens alors que les probabilités s’insèrent dans l’écart entre le possible et l’actuel – de manière synchronique dans le premier cas et de manière diachronique dans le second. Cet écart peut recevoir une interprétation plus épistémologique, comme incertitude, ou plus ontologique, comme indéterminisme. Je soulignerai ensuite les conséquences épistémologiques de cette hypothèse.

Séminaire Probabilités, Décision, Incertitude : Frédéric Bouchard

French
Friday 12 April 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Frédéric BOUCHARD (Université de Montréal) présente : "L'autorité des experts face aux risques".

Résumé : Les débats publics récents sur le changement climatique ont à la fois renforcé la nécessité de faire appel aux experts et relativisé l'autorité de leur apport. Plusieurs disciplines des sciences humaines, en particulier dans le champ des STS ont offert un diagnostic de ce phénomène. Toutefois, à cause de l'influence du « Strong Programme » (ainsi que d'autres projets relativistes), la contribution des STS s'est surtout concentrée sur une description du rôle d'acteur de l'expert scientifique et non sur la légitimité de son autorité épistémique. La philosophie s'intéresse tardivement à ses questions, mais ses contributions sont significatives. On peut regrouper la plupart des théories philosophiques de l'expertise en deux familles : certains comme Hardwig offre une caractérisation morale de l'expertise, alors que d'autres (par ex. Goldman) s'intéressent plutôt à l'étude de l'asymétrie épistémique entre agents. Ces deux approches soulignent des aspects fondamentaux de l'expertise, mais ne tiennent pas assez compte de l'hétérogénéité des types d'objets pour lesquels l'expertise est requise et invoquée. En m'inspirant du travail de Merton, je montrerai que les types de valeurs agissant comme idéal régulateur à la science jouent un rôle paradoxal par rapport au problème de l'expertise : en voulant garantir l'autorité épistémique de l'expert grâce à une supposée objectivité du chercheur, on affaiblit l'autorité de l'expert pour toute question où il y a un risque perçu par la communauté. Seule une contextualisation par rapport aux risques impliqués par l'objet discuté permet de comprendre la force de l'autorité épistémique de l'expert. Ainsi, comme le risque ne peut pas être compris de manière complètement objective, il faut offrir une autre justification de l'autorité épistémique de l'expert si on veut en garantir le rôle privilégié pour la prise de certaines décisions. Après avoir présenté cette problématique, nous terminerons en montrant que pour ancrer l'autorité de l'expert face au risque il faudra probablement dépasser l'épistémique pour en arriver à des considérations éthiques.

Séminaire Probabilités, Décision, incertitude : Eduardo Noble

French
Friday 17 May 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Eduardo NOBLE (Université d'Artois, UMR SPHère) présente : "La (non) diffusion des idées de l’École combinatoire en dehors de l’Allemagne : le cas de la France.".

Méconnues des historiens des sciences, les idées de l’École combinatoire allemande jouèrent pourtant un rôle fondamental dans la conformation des mathématiques allemandes à la fin du XVIIIe siècle et pendant la première moitié du XIXe siècle. D’autre part, le problème de savoir si ces idées eurent des répercussions sur l’ensemble de l’Europe reste une question ouverte. Bien que peu étudiée, cette question reçoit habituellement une réponse négative de la part des historiens des mathématiques. Ces historiens considèrent en général que ce refus des idées de l’École combinatoire par les savants de cette époque trouve une explication dans le caractère « farfelu » des théories combinatoires allemandes. Dans cet exposé, je me propose de faire le point sur cette question, tout en limitant mon analyse au cas de la diffusion de ces idées en France. Il s’agit donc de caractériser d’abord ce qu’on doit entendre par « École combinatoire », de reconstruire l’image qu’on avait de cette école dans la France du XVIIIe et XIXe siècles, et de dresser un bilan des raisons pour lesquelles les théories combinatoires allemandes n’eurent pas une large diffusion parmi les mathématiciens français.

Séminaire Probabilités, Décision, Incertitude : Adrien Barton

French
Friday 7 June 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Nous recevons Adrien BARTON (INSERM et Université Rennes 1) qui intervient sur : "Formalisation des probabilités médicales dans les ontologies appliquées".

Les ontologies appliquées biomédicales constituent un outil informatique visant à donner la représentation la plus exhaustive et rigoureuse de la réalité décrite par la science biomédicale, permettant notamment l’interopérabilité sémantique des données biomédicales. Ce domaine interdisciplinaire s’est développé grâce à la collaboration de médecins, biologistes, informaticiens et philosophes, avec notamment la création de la OBO Foundry (http://www.obofoundry.org), vaste projet de mise au point d’ontologies complémentaires et inter-compatibles, fondées sur l’ontologie réaliste de haut niveau BFO (Basic Formal Ontology). Or, une grande partie de la connaissance médicale est probabiliste, et comprend notamment les probabilités diagnostiques utilisées en pratique clinique : prévalence d’une maladie d’une part ; sensibilité, spécificité, valeur prédictive positive et valeur prédictive négative d’un test pour une maladie d’autre part. Après une courte présentation du domaine des ontologies appliquées et de son actualité récente, je proposerai une formalisation de ces probabilités médicales qui soit compatible avec l’ontologie BFO, en les analysant comme des probabilités dispositionnelles, dans la lignée de l’interprétation propensionniste de Popper.