Séminaire Probabilités, Décision, Incertitude - PDI : présentation

Le séminaire mensuel Probabilité, décision, incertitude a été fondé en septembre 2005 par Thierry Martin et Isabelle Drouet. Il prend la succession du séminaire Philosophie des probabilités, créé en mars 2003 par Jacques Dubucs et Thierry Martin. Sauf exception, les séances ont lieu tous les premiers vendredis du mois de 14h à 16h.

Le séminaire Probabilité, décision, incertitude se donne pour objet l’étude des problèmes contemporains relevant de la philosophie des probabilités et qui apparaissent dans les différents champs disciplinaires où elles sont investies (logique, économie, biologie, physique, etc.). Ces problèmes sont étudiés dans une perspective épistémologique, mais sans orientation doctrinale exclusive, les trois concepts qui le définissent devant être pris comme dessinant un domaine de réflexion, non comme la délimitation de leur intersection. Une attention particulière est portée à la constitution et à la mise en œuvre du raisonnement probabiliste. Le but du séminaire est de permettre la construction progressive et collective de solutions par la confrontation des informations, réflexions et discussions auxquelles donne lieu l’analyse des problèmes étudiés. Leur étude peut être ordonnée en thèmes directeurs sur plusieurs séances (probabilités conditionnelles, bayésianisme, problème dit de la sleeping beauty) ou répondre à l’actualité de la recherche probabiliste.

Responsable (s): 
Axe thématique: 
Research program: 

Séminaire Probabilité décision incertitude

Le séminaire mensuel Probabilité, décision, incertitude a été fondé en septembre 2005 par Thierry MARTIN et Isabelle DROUET. Il prend la succession du séminaire Philosophie des probabilités, créé en mars 2003 par Jacques DUBUCS et Thierry MARTIN.

Le séminaire Probabilité, décision, incertitude se donne pour objet l’étude des problèmes contemporains relevant de la philosophie des probabilités et qui apparaissent dans les différents champs disciplinaires où elles sont investies  (logique, économie, biologie, physique, etc.). Ces problèmes sont étudiés dans une perspective épistémologique, mais sans orientation doctrinale exclusive, les trois concepts qui le définissent devant être pris comme dessinant un domaine de réflexion, non comme la délimitation de leur intersection. Une attention particulière est portée à la constitution et à la mise en œuvre du raisonnement probabiliste. Le but du séminaire est de permettre la construction progressive et collective de solutions par la confrontation des informations, réflexions et discussions auxquelles donne lieu l’analyse des problèmes étudiés. Leur étude peut être ordonnée en thèmes directeurs sur plusieurs séances (probabilités conditionnelles, bayésianisme, problème dit de la sleeping beauty, …) ou répondre à l’actualité de la recherche probabiliste.

 
Le programme des séances de 2015-2016 est le suivant : 
 
- Charles SAULEAU (Logiques de l’agir, Université de Franche-Comté), 13 novembre  2015: L'affaire Clément : un cas concret d'application des probabilités bayésiennes au procès pénal
 

- David TEIRA (UNED), 4 décembre 2015 : Statistical evidence and the reliability of medical research

- Leila SCHNEPS (Institut de mathématiques de Jussieu), 5 février 2016, Les probabilités dans les procès criminels

- Jean-Pierre CLERO (Université de Rouen), date à venir : Nature et probabilité

- Marion VORMS (IHPST), 29 avril 2016, titre à venir

Séminaire PDI - Charles SAULEAU

Undefined
Friday 13 November 2015 - 14:00 to 16:00
Maison de la recherche

Conférence de Charles Sauleau (Logiques de l’agir, Université de Franche-Comté), le 13 novembre  2015: L'affaire Clément : un cas concret d'application des probabilités bayésiennes au procès pénal

Séminaire PDI - David TEIRA

Undefined
Friday 4 December 2015 - 14:00 to 16:00
IHPST - Salle de conférence

David Teira (UNED), le 4 décembre 2015 : Statistical evidence and the reliability of medical research

Séminaire PDI - Leila SCHNEPS

Undefined
Friday 5 February 2016 - 14:00 to 16:00
IHPST - Salle de conférence

Conférence de Leila SCHNEPS (Institut de mathématiques de Jussieu).​
Résumé : Après une brève introduction sur les écueils des probabilités élémentaires en montrant quelques paradoxes, il s’agira de présenter quelques cas de procès où les probabilités ont joué un rôle important, et parfois malheureux. Pour finir on expliquera le théorème de Bayes et l'approche bayésienne en criminalistique, avec exemples de procès à l'appui.

Séminaire Probabilités, décision, incertitude : 2012-2013

Séminaire Probabilités, Décision, Incertitude : Steeves Demazeux

French
Friday 19 October 2012 - 14:00 to 16:00
IHPST - Salle de conférence

La catégorie d’ « état mental à risque » dans les programmes de prévention de la schizophrénie

Depuis le début des années 1990 ont fleuri, d’abord en Australie, aux États-Unis, puis dans de nombreux pays du monde, de nouveaux centres d’intervention précoce sur la schizophrénie. Il s’agit de promouvoir une forme originale de prévention ciblée sur les individus à risque de déclencher une schizophrénie, dans le but de diminuer l’incidence de la maladie (ce que les épidémiologistes appellent une approche de prévention secondaire), sinon à défaut sa morbidité (prévention tertiaire). Ces programmes de détection et d’intervention précoce, parfois couplés avec des essais pharmacologiques de traitements par psychotropes des adolescents à risque, soulèvent beaucoup de débats et de critiques à l’intérieur même du champ de la psychiatrie.Dans cet exposé, je propose une analyse de la catégorie d’ « état mental à risque » qui est centrale dans ces programmes. Je montre comment cette catégorie est construite, et comment le risque est mesuré. Je mets ensuite en évidence ses affinités et ses différences par rapport à d’autres catégories du même champ de la prévention de la schizophrénie, comme ceux de « prodrome », de « ultra haut risque », et de « groupe de vulnérabilité », pour mieux en relever les ambiguïtés définitionnelles. L’enjeu de mon argumentation sera de soulever le problème, bien connu des épidémiologistes, de la « privatisation du risque » qui constitue le danger de ce type d’approche préventive, au sens où un risque statistique populationnel est interprété comme un facteur de risque individuel.

Séminaire Probabilités, Décision, Incertitude : Nadine de Courtenay & Fabien Grégis

French
Friday 9 November 2012 - 14:00 to 16:00
IHPST - Salle de conférence

Le Guide pour l'expression de l'incertitude de mesure (GUM) : un terrain de discussion entre fréquentistes et bayésiens

Une maîtrise de tous les facteurs conceptuels et expérimentaux intervenant dans un processus de mesure étant impossible, aucun résultat de mesure ne peut être considéré comme complet s’il n’est accompagné de la mention de son incertitude. Seule l’évaluation quantitative de cette incertitude permet en effet de détacher un résultat de mesure du contexte expérimental particulier dans lequel il a été obtenu afin de le comparer à d’autres résultats, à des prédictions théoriques, ou encore à des spécifications techniques. Cependant, les décisions prises sur la base de ces mesures (accord ou désaccord, acceptation d’une hypothèse ou d’un produit industriel) ne peuvent avoir le même sens pour tous que si les incertitudes sur lesquelles elles se fondent sont définies, calculées et interprétées de la même manière. 

Rédigé à l’initiative du Bureau international des poids et mesures (BIPM), le Guide pour l’expression de l’incertitude de mesure (GUM), publié en 1993, énonce un ensemble de règles générales qui vise à uniformiser l’évaluation des résultats de mesure et de leur incertitude associée sur des bases probabilistes. Les recommandations du GUM ont cependant très vite été critiquées pour leur inconsistance car elles conduisent à juxtaposer interprétations fréquentiste et bayesienne des probabilités. Une approche entièrement bayesienne de l’incertitude de mesure a été avancée afin d’éliminer ces inconsistances mais elle est loin de faire l’unanimité parmi les métrologues.

Après avoir exposé les différences majeures qui séparent les traitements fréquentiste et bayesien des incertitudes de mesure du point de vue de leur signification et de leur calcul, nous analyserons le retentissement du tournant épistémique du GUM sur certains concepts centraux de la théorie de la mesure (erreurs, grandeurs, valeur vraie, validité) et les questions philosophiques qui en découlent. Nous essayerons notamment de montrer comment les débats qui divisent les métrologues sur la meilleure façon de fixer les critères d’acceptabilité de nos énoncés théoriques et pratiques pourraient éclairer le développement de l’épistémologie sociale.

Séminaire Probabilités, Décision, Incertitude : Jean-Paul Delahaye

French
Friday 14 December 2012 - 14:00 to 16:00
IHPST - Salle de conférence

Nous recevons Jean-Paul Delahaye (LIFL, UMR-CNRS 8022) sur le sujet : "Trois sortes de hasard".

Produire du hasard avec un ordinateur est utile pour la programmation des jeux, pour réaliser des simulations, et pour toutes sortes d'autres choses encore : images, tests, codes secrets, etc. C'est difficile et de nombreux pièges persistent malgré plus de cinquante ans de travaux sur le problème. En cryptographie les exigences sont différentes de celles rencontrées en modélisation, mais des progrès récents ont eu lieu qui nous font mieux comprendre le hasard en général et comment l'obtenir et l'approcher. Une troisième sorte de hasard a aussi été identifiée grâce à la théorie de la complexité (de Kolmogorov) et à l'informatique théorique. Ce troisième hasard qui est celui qu'on trouve dans les décimales du nombre oméga de Chaitin, il est particulièrement troublant et presque paradoxal du fait de ses liens avec les aspects les plus profonds de la logique mathématique (incompéltude de de Gödel, indécidabilité de Turing).

Séminaire Probabilités, Décision, Incertitude : Jean-Jacques KUPIEC

French
Friday 1 February 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Jean-Jacques KUPIEC (Centre Cavaillès, ENS-Ulm)présentera une conférence sur : "Les conséquences de l'expression stochastique des gènes"

Il est démontré que l'expression des gènes est un phénomène stochastique. Dans la mesure où la biologie a toujours été dominée par des théories déterministes en ce qui concerne le fonctionnement interne des êtres vivants, il s'agit là d'une découverte considérable dont les conséquences doivent être évaluées. Sur la base de travaux expérimentaux et théoriques, je soutiens qu'elle ne peut ne peut être réduite à une simple marge de fluctuation dans la réalisation d'un programme génétique ou d'un réseau de gènes. Au contraire, elle implique la dissolution de ces deux notions et un réaménagement théorique de grande ampleur en biologie.

Séminaire Probabilités, Décision, Incertitude : Laurent JODOIN

French
Friday 29 March 2013 - 14:00 to 16:00

Présentation de Laurent JODOIN (IHPST/Université de Montréal).

Dans la seconde moitié du XIXème siècle, près de deux cents ans après la première théorisation des probabilités, les travaux de Maxwell et Boltzmann annonçaient la mécanique statistique. La probabilité y est considérée comme la probabilité qu’un système, présentant certaines caractéristiques macroscopiques observables, soit dans un certain état microscopique inobservable – on peut alors parler de probabilité d’être. Quelques décennies plus tard, les travaux de Planck puis de Schrödinger et de Heisenberg ouvraient la voie à la mécanique quantique. La probabilité est alors considérée comme une probabilité de mesure d’un état à partir d’une fonction d’onde censée représenter l’état du système et gouvernée par la dynamique de l’équation différentielle dépendante du temps de Schrödinger – on peut alors parler de probabilité de devenir. Dans le premier cas, le déterminisme n’est pas remis en cause de front, car la dynamique ‘sous-jacente’ et inobservable du vaste microsystème peut très bien (et est sans doute) gouvernée par les équations déterministes de la mécanique newtonienne. Dans le second cas, en revanche, l’indéterminisme peut prendre plusieurs formes, mais il est généralement associé à la probabilité d’un événement conditionnel à l’occurrence d’une certaine procédure (de mesure) dans un certain état ; voire même, l’état du système mesuré ne serait qu’un ensemble de fonctions de probabilité. Or, ces deux conceptions ne sont pas nécessairement incompatibles ou contradictoires. Je soutiens alors que les probabilités s’insèrent dans l’écart entre le possible et l’actuel – de manière synchronique dans le premier cas et de manière diachronique dans le second. Cet écart peut recevoir une interprétation plus épistémologique, comme incertitude, ou plus ontologique, comme indéterminisme. Je soulignerai ensuite les conséquences épistémologiques de cette hypothèse.

Séminaire Probabilités, Décision, Incertitude : Frédéric Bouchard

French
Friday 12 April 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Frédéric BOUCHARD (Université de Montréal) présente : "L'autorité des experts face aux risques".

Résumé : Les débats publics récents sur le changement climatique ont à la fois renforcé la nécessité de faire appel aux experts et relativisé l'autorité de leur apport. Plusieurs disciplines des sciences humaines, en particulier dans le champ des STS ont offert un diagnostic de ce phénomène. Toutefois, à cause de l'influence du « Strong Programme » (ainsi que d'autres projets relativistes), la contribution des STS s'est surtout concentrée sur une description du rôle d'acteur de l'expert scientifique et non sur la légitimité de son autorité épistémique. La philosophie s'intéresse tardivement à ses questions, mais ses contributions sont significatives. On peut regrouper la plupart des théories philosophiques de l'expertise en deux familles : certains comme Hardwig offre une caractérisation morale de l'expertise, alors que d'autres (par ex. Goldman) s'intéressent plutôt à l'étude de l'asymétrie épistémique entre agents. Ces deux approches soulignent des aspects fondamentaux de l'expertise, mais ne tiennent pas assez compte de l'hétérogénéité des types d'objets pour lesquels l'expertise est requise et invoquée. En m'inspirant du travail de Merton, je montrerai que les types de valeurs agissant comme idéal régulateur à la science jouent un rôle paradoxal par rapport au problème de l'expertise : en voulant garantir l'autorité épistémique de l'expert grâce à une supposée objectivité du chercheur, on affaiblit l'autorité de l'expert pour toute question où il y a un risque perçu par la communauté. Seule une contextualisation par rapport aux risques impliqués par l'objet discuté permet de comprendre la force de l'autorité épistémique de l'expert. Ainsi, comme le risque ne peut pas être compris de manière complètement objective, il faut offrir une autre justification de l'autorité épistémique de l'expert si on veut en garantir le rôle privilégié pour la prise de certaines décisions. Après avoir présenté cette problématique, nous terminerons en montrant que pour ancrer l'autorité de l'expert face au risque il faudra probablement dépasser l'épistémique pour en arriver à des considérations éthiques.

Séminaire Probabilités, Décision, incertitude : Eduardo Noble

French
Friday 17 May 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Eduardo NOBLE (Université d'Artois, UMR SPHère) présente : "La (non) diffusion des idées de l’École combinatoire en dehors de l’Allemagne : le cas de la France.".

Méconnues des historiens des sciences, les idées de l’École combinatoire allemande jouèrent pourtant un rôle fondamental dans la conformation des mathématiques allemandes à la fin du XVIIIe siècle et pendant la première moitié du XIXe siècle. D’autre part, le problème de savoir si ces idées eurent des répercussions sur l’ensemble de l’Europe reste une question ouverte. Bien que peu étudiée, cette question reçoit habituellement une réponse négative de la part des historiens des mathématiques. Ces historiens considèrent en général que ce refus des idées de l’École combinatoire par les savants de cette époque trouve une explication dans le caractère « farfelu » des théories combinatoires allemandes. Dans cet exposé, je me propose de faire le point sur cette question, tout en limitant mon analyse au cas de la diffusion de ces idées en France. Il s’agit donc de caractériser d’abord ce qu’on doit entendre par « École combinatoire », de reconstruire l’image qu’on avait de cette école dans la France du XVIIIe et XIXe siècles, et de dresser un bilan des raisons pour lesquelles les théories combinatoires allemandes n’eurent pas une large diffusion parmi les mathématiciens français.

Séminaire Probabilités, Décision, Incertitude : Adrien Barton

French
Friday 7 June 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Nous recevons Adrien BARTON (INSERM et Université Rennes 1) qui intervient sur : "Formalisation des probabilités médicales dans les ontologies appliquées".

Les ontologies appliquées biomédicales constituent un outil informatique visant à donner la représentation la plus exhaustive et rigoureuse de la réalité décrite par la science biomédicale, permettant notamment l’interopérabilité sémantique des données biomédicales. Ce domaine interdisciplinaire s’est développé grâce à la collaboration de médecins, biologistes, informaticiens et philosophes, avec notamment la création de la OBO Foundry (http://www.obofoundry.org), vaste projet de mise au point d’ontologies complémentaires et inter-compatibles, fondées sur l’ontologie réaliste de haut niveau BFO (Basic Formal Ontology). Or, une grande partie de la connaissance médicale est probabiliste, et comprend notamment les probabilités diagnostiques utilisées en pratique clinique : prévalence d’une maladie d’une part ; sensibilité, spécificité, valeur prédictive positive et valeur prédictive négative d’un test pour une maladie d’autre part. Après une courte présentation du domaine des ontologies appliquées et de son actualité récente, je proposerai une formalisation de ces probabilités médicales qui soit compatible avec l’ontologie BFO, en les analysant comme des probabilités dispositionnelles, dans la lignée de l’interprétation propensionniste de Popper.

Séminaire Probabilités, décision, incertitude : 2013-2014

Séminaire Probabilités, Décision, Incertitude : Bruno Lecoutre

French
Friday 21 March 2014 - 14:00 to 16:00
IHPST - Salle de réunion

La prochaine séance du séminaire "Probabilités, Décision, Incertitude", a lieu le vendredi 21 mars 2014 de 14h00 à 16h00 dans la salle de réunion de l'IHPST (1er étage). Bruno LECOUTRE (laboratoire de mathématiques de Rouen, CNRS UMR 6085) présente une conférence sur : Pourquoi les méthodes bayésiennes sont-elles si peu utilisées dans les revues expérimentales ?

Les revues expérimentales font un usage abondant des procédures d’inférence statistique. En psychologie, par exemple, il n’est pas rare de trouver dans un même article plusieurs dizaines de tests de signification de l’hypothèse nulle. Suivant les recommandations d’un nombre croissant de revues, l’usage des intervalles de confiance fréquentistes se répand également. En revanche les méthodes bayésiennes ne sont guère utilisées. Nous examinons les raisons possibles de cet état de fait. Nous discutons les conceptions (généralement ignorées) de Jeffreys vis-à-vis de l’utilisation des méthodes bayésiennes dans le cas particulier de l’analyse des données expérimentales et nous en tirons les conséquences.

Séminaire Probabilités, Décision, Incertitude : Christian Robert

French
Friday 17 January 2014 - 14:00 to 16:00
IHPST - Salle de conférence

Christian ROBERT (IFSA, Univ. Paris-Dauphine) intervient sur le sujet suivant : "Des spécificités de l'approche bayésienne et de ses justifications en statistique inférentielle".

Séminaire Probabilités, Décision, Incertitude : Isabelle Albert

French
Friday 6 December 2013 - 14:00 to 16:00
IHPST - Salle de conférence

Isabelle ALBERT (Met@risk, INRA) intervient sur le thème : "quantitative du risque alimentaire de la production à la maladie humaine par approches bayésiennes".

Vendredi 17 janvier 2014
Christian ROBERT (IFSA, Univ. Paris-Dauphine)
Des spécificités de l'approche bayésienne et de ses justifications 
en statistique inférentielle

Vendredi 31 janvier 2014
Nicolas LARTILLOT (Univ. de Montréal)
Inférence bayésienne en biologie: une philosophie de la statistique à l'épreuve des faits

Vendredi 7 février 2014
Maël LEMOINE (INSERM U930, IHPST)
Les modèles bayésiens de l'inférence diagnostique sont-ils normatifs ou descriptifs ?

Vendredi 7 mars 2014
Bruno LECOUTRE (LMRS, UMR 6085 CNRS-Univ. de Rouen)
Pourquoi les méthodes bayésiennes sont-elles si peu utilisées 
dans les revues expérimentales ?

Vendredi 31 mars 2014
Anouk BARBEROUSSE (STL, UMR 8163 CNRS-Univ. Lille)
Approches bayésiennes de la gestion des risques
associés aux événements climatiques exceptionnels

Vendredi 16 mai 2014
Jacques DUBUCS (SND, FRE 3593 CNRS-Univ. Paris-Sorbonne)
Le holisme de la confirmation

Vendredi 6 juin 2014
Isabelle DROUET (SND, FRE 3593 CNRS-Univ. Paris-Sorbonne)
Les approches et méthodes bayésiennes. Pratiques et fondements


A l’exception de la séance du 16 mai, toutes les séances de la saison 2013-2014 correspondent à des chapitres de l’ouvrage Les approches et méthodes bayésiennes, pratiques et fondements, dirigé par Isabelle Drouet, à paraître aux Éditions Matériologiques.

Séminaire Probabilités, Décision, Incertitude : Maël Lemoine

French
Friday 7 February 2014 - 14:00 to 16:00
IHPST - Salle de conférence

Maël LEMOINE (Université de Tours/INSERM U930/IHPST) présente une conférence sur le sujet : Les modèles bayésiens de l'inférence diagnostique sont-ils normatifs ou descriptifs ?

Les modèles bayésiens ont été utilisés en médecine pour aider à la solution de nombreux problèmes. En particulier, ils ont été utilisés pour améliorer la décision clinique en améliorant l'inférence diagnostique. Une ambiguïté demeure toutefois sur le statut de ces modèles : s'agit-il de modèles descriptifs ou de modèles normatifs de l'inférence diagnostique ? En dépit des objections qui se posent, je vais tenter de définir à quelles conditions on peut les tenir pour des modèles descriptifs de l'inférence diagnostique.

Séminaire Probabilités, Décision, Incertitude : Nicolas Lartillot

French
Friday 31 January 2014 - 14:00 to 16:00
IHPST - Salle de conférence

Nicolas LARTILLOT (LBBE, CNRS / université Lyon 1) présentera une conférence sur le sujet : "Inférence bayésienne en biologie: une philosophie de la statistique à l'épreuve des pratiques"

L'inférence probabiliste, et plus particulièrement l'inférence bayésienne, sont de plus en plus utilisées en bioinformatique et en sciences de l'évolution, comme dans bien d'autres domaines de la science moderne. Toutefois, on pourrait dire que, du point de vue philosophique, la situation, qui a certes toujours été confuse, est devenue encore moins claire que jamais. À tout prendre, on aurait même l'impression que, plus l'inférence bayésienne se propage largement à travers le monde scientifique, plus faible est la proportion de ceux qui l'emploient tout en adhérant aux principes philosophiques qui sont censés la sous-tendre. Si l'on gratte un peu la surface, on se rend vite compte en effet que les scientifiques, y compris ceux qui utlisent des outils informatiques fondés sur des principes d'inférence bayésienne, ne sont fondamentalement pas bayésiens au sens philosophique du terme, semblant plutôt valoriser des principes et des valeurs épistémologiques proches de ceux défendus par l'école dite fréquentiste. Il y a donc là comme une dissonance cognitive, qui n'est certes pas la première en sciences, mais qui mérite néanmoins d'être examinée de plus près.

Pour ce faire, l'on revisitera, à travers des exemples issus de la biologie et de la génétique des populations, le contenu logique et sémantique du théorème de Bayes et du principe d'inférence, dite par conditionnalisation, auquel il donne corps. À travers ce travail, on identifiera plus clairement les ressorts à la fois mathématiques, épistémologiques et pratiques de l'inférence probabiliste, cadre théorique relativement général dont l'inférence bayésienne représente une variété plus particulière. Également, cette analyse nous permettra de localiser plus précisément les lignes de séparation des eaux entre les différentes écoles de pensée en statistiques (fréquentiste ou bayésienne, et au sein de cette dernière, objectiviste ou subjectiviste), mettant à jour certains des principes épistémologiques qui les structurent chacune tout en les opposant les unes aux autres.

Une fois les problèmes épistémologiques clarifiés, on passera sur un plan plus pratique, pour considérer plus particulièrement l'enjeu computationnel. On verra alors que c'est là que tout se joue. Les scientifiques sont en effet très pragmatiques et sont capables de beaucoup de flexibilité d'un point de vue philosophique si cela les arrange sur un plan computationnel ou expérimental. La fidélité aux principes épistémologiques de telle ou telle école de pensée statistique n'est qu'un des aspects du problème, arbitré avec d'autres enjeux, en particulier computationnels ou relatifs à la liberté que confèrent les différents paradigmes statistiques dans la modélisation des phénomènes et des processus biologiques. A l'aune de cet arbitrage pragmatique, il s'avère que l'inférence bayésienne offre finalement un meilleur compromis que les approches plus classiques d'obédience fréquentiste, ce qui pourrait bien être la raison fondamentale de sa popularité croissante.

Toutefois, à plus long terme, les sciences biologiques en particulier, et la science en général, ne peuvent se satisfaire d'un tel syncrétisme sans chercher à approfondir la réflexion et opérer une synthèse plus harmonieuse entre principes épistémologiques et considéreations pratiques. De fait, si une synthèse aboutie entre fréquentisme et bayésien a souvent passé pour le serpent de mer de la statistique, les contours d'une telle réunification se précisent malgré tout peu à peu, entre autres grâce aux développements de la théorie statistique de la décision, de l'inférence bayésienne empirique et de la théorie de l'information.

Séminaire Probabilités, décision, incertitude : 2014-2015

Séminaire Probabilités, décision, incertitude : Sébastien Poinat

Undefined
Friday 17 October 2014 - 14:00 to 16:00
IHPST - Salle de conférence

Séminaire Probabilités, décision, incertitude : Pierre Uzan

Undefined
Friday 31 October 2014 - 14:00 to 16:00
IHPST - Salle de conférence

Pierre Uzan (Université Paris-Diderot, SPHERE) : "Calcul Quantique des Probabilités : de la Physique à la Théorie de la Décision"

Résumé : Les phénomènes quantiques ne sont généralement pas régis par le calcul classique des probabilités car ce dernier ne peut prendre en compte les effets contextuels, les effets d’ordre et d’interférences spécifiques de ces phénomènes. La structure des énoncés descriptifs d’une expérience de physique quantique n’est, en effet, pas isomorphe à une algèbre de Boole, comme le sont les énonces descriptifs d’une expérience de physique classique, mais à la structure des sous-espaces clos d’un espace de Hilbert où les opérations de somme directe et de complémentation orthogonale remplacent, respectivement, celles de réunion et de complémentation ensemblistes.

Le calcul « quantique » des probabilités ainsi défini donne lieu à des applications intéressantes qui vont bien au-delà du seul domaine physique : il permet de modéliser la contextualité du langage naturel, de prendre en compte l’ordre des questions lors d’un sondage d’opinion et de résoudre les difficultés de la théorie classique de la décision en situation incertaine.

Séminaire Probabilités, décision, incertitude : Laurent Delabre

Undefined
Friday 5 December 2014 - 14:00 to 16:00
IHPST - Salle de conférence

Laurent Delabre, Université de Paris 1 : "La Belle au bois dormant : les leçons de quinze ans de débats".

Résumé : En seulement 15 ans, l'énigme probabiliste de la Belle au bois dormant a engendré une vaste et impressionnante littérature : une centaine de publications, articles, livres, dissertations doctorales traitent en partie ou sont entièrement consacrés à ce problème d'auto-localisation et de révision des croyances partielles. Sleeping Beauty, grand paradoxe philosophique de ce début de 21e siècle, toujours sans solution unanime, divise "demistes" et "tiéristes", fréquentistes et bayésiens, désambiguïsateurs et réconciliateurs. Nous allons rappeler l'énigme, expliquer son importance et surtout présenter sommairement les pistes de résolution les plus discutées : ainsi sera dressé un bilan des 15 premières années d'efforts des chercheurs en vue d'isoler un raisonnement qui fait s'évaporer tout effet paradoxal et dont personne ne pourrait plus sérieusement remettre en question la validité.

Séminaire Probabilités, décision, incertitude : Marc Lachieze Rey

Undefined
IHPST - Salle de conférence

Séminaire Probabilités, décision, incertitude : Isabelle Drouet

Undefined
Friday 3 April 2015 - 14:00 to 16:00
IHPST - Salle de réunion

Isabelle Drouet ( SND, Université de Paris IV) interviendra sur le bayésianisme.

Séminaire Probabilités, décision, incertitude : Christian Schmidt

Undefined
Thursday 26 March 2015 - 17:00 to 19:00
Département d'Études Cognitives de l'École Normale Supérieure - 29 rue d'Ulm 75005 Paris

Nous aurons le plaisir d'entendre un exposé de Christian Schmidt (Université Paris-Dauphine), intitulé : "Time Perception: A Linkage Between Delayed Rewards and Risk Analysis in Decision-Making".

Résumé : At an empirical level, experimental economics has revealed a lot of logical anomalies in agents’ intertemporal choices (Loewenstein and Prelec, 1992). They were observed in temporal discount, as well as in risky decision–making. In each case, time perception (and, or subjective time representation) seems an essential feature of the underlying decision-making processes, either through the delayed dimension of the outcomes (temporal discount), or by means of its risky dimension (probability discount). Their similarities have been noticed from the ninety’s by several psychologists (Rachlin, Raineri, Cross, 1991; Myerson and Gren, 1995) and some behavioral scientists (Prelec and Lowenstein ,1991). The assumption of a common relation between the physical time and its associated perceived time by the individuals leads back to Fechner’ works who found a mathematical measurement of the quantitative relation between the impulse and the correspondent sensitive reactions thanks to a logarithmic formulation. The major idea borrowed to Fechner is the nonlinear relation between the objective physical (or calendar) time and the subjective perceived (or psychological) time. But time perception does not refer here to sensations in reaction to external impulses whatever, but to subjective anticipations associated to various time horizons, or to probabilistic options, and sometimes to both (Green and Myerson, 2004). For elaborate the topic, three kinds of transformations must be successively analyzed 1) the transformation of the physical time into anticipated time (temporal discounting), 2) the transformation of physical time into expected risks (weighting probability), 3) the connection between each of these time-transformations. Recent discovering about brain working in such situations, as the neurobiological processes of delayed and risky expected rewards (Schültz, 2012; Bermudez and Schültz, 2014), leads to a better understanding of their mechanisms. They provide a framework for modeling the impacts of time perception on temporal and probabilistic discount.

Cette présentation s'appuiera sur des travaux menés en collaboration avec Pierre Livet d'une part, André Lapidus et Marc-Arthur Diayes d'autre part. L'exposé aura lieu dans la salle Séminaire du Département d'Études Cognitives de l'École Normale Supérieure (29, rue d'Ulm, 75005 Paris).

Séminaire Probabilités, décision, incertitude : Julien Jebeile

Undefined
Friday 17 April 2015 - 14:00 to 16:00
IHPST - Salle de conférence

Julie Jebeile (Université de Compiègne) interviendra sur le thème : "Incertitudes dans les modèles climatiques".

Séminaire Probabilités, décision, incertitude : Thomas Boyer-Kassem

Undefined
Friday 22 May 2015 - 14:00 to 16:00
IHPST - Salle de conférence

Modèles du jugement avec probabilités quantiques : de nouveaux tests empiriques

Résumé : Ces dernières années ont vu se développer, au croisement de la psychologie, de l'économie, de la physique et de la philosophie, des modèles du jugement s'inspirant de la théorie de la mécanique quantique. Sans supposer que le cerveau lui-même se comporte de façon quantique, ces modèles utilisent des outils mathématiques ou des hypothèses de la mécanique quantique (espaces de Hilbert, postulat de projection, probabilités quantiques...) pour rendre compte des comportements humains. En particulier, ces modèles prétendent expliquer les comportements que les modèles classiques (i. e. employant les probabilités au sens de Kolmogorov) considèrent comme des jugements paradoxaux ou irrationnels. Dans cette présentation, nous nous concentrons sur certains de ces modèles quantiques qui prétendent rendre compte de l'effet d'ordre – la réponse donnée à deux questions dépend de l'ordre de ces questions – et de l'erreur de conjonction – la conjonction de deux événements A et B est jugée plus probable que le seul événement A. Nous montrons que les modèles étudiés, dès lors qu'ils satisfont une propriété de non-dégénérescence, impliquent des prédictions empiriques qui n'avaient pas été testées jusque là dans la littérature. En effectuant ce test, nous concluons que ces modèles ne sont pas empiriquement adéquats. Nous discutons des conséquences de ces résultats pour le domaine de recherche des modèles quantiques en général.

Séminaire Probabilités, décision, incertitude : 2015-2016

Séminaire Probabilités, décision, incertitude : 2016-2017