Réflexions suggérées par l'ouvrage de ce nom.
Certaines théories « falsifiées » ne sont pas à rejeter car elles restent (supposées) valables dans un domaine restreint (physique newtonienne).
Évaluation de la probabilité a priori d'une théorie (d'autant plus élevée que la théorie dit moins de choses précises) : plutôt remplacer cette probabilité (non correctement définissable ?) par l'ensemble des situations où elle est non falsifiée (on définit « situation » avec l'invariance dans l'espace et le temps).
On se donne un ensemble de « paramètres indifférents » naturels postulés (espace et temps, mais aussi par exemple composition chimique pour la mécanique) dont on suppose qu'une théorie ne dépend pas. On considère l'ensemble des tests d'une théorie (comprenant éventuellement des falsifications de la théorie). On considère une « situation » = description des conditions initiales, modulo les paramètres indifférents (deux situations ne différant que par ces paramètres sont considérées comme égales).On dit qu'une situation falsifie la théorie si au moins une expérience correspondant à cette situation (avec une certaine valeur des paramètres indifférents) la falsifie. La « probabilité » d'une théorie est alors le couple de l'ensemble des situations qui ne la falsifient pas (y compris les situations non encore testées), et de l'ensemble des situations qui la vérifient (la différence entre ces deux ensembles comprend les situations non testées) [on peut définir la corroboration d'une théorie par ce second ensemble] (tout ceci dépend des paramètres considérés comme indifférents). Cela délimite en quelque sorte les domaines de validité maximal et minimal de la théorie. L'ensemble supérieur ne peut que décroître avec le progrès scientifique, tandis que l'ensemble inférieur peut croître ou décroître (si toutes les instances d'une situation testées jusqu'à hier étaient en accord avec la théorie, mais qu'on a trouvé une instance de cette situation qui la falsifie). Lorsque toutes les situations testées falsifient la théorie, on peut essayer de prendre moins de paramèters inddifférents (de restreindre la notion de « même situation »). Exemple : en physique newtonienne, la valeur de la vitesse n'est pas un paramètre indifférent, contrairement à ce qu'on croyait ; mais la physique newtonienne reste valide et utilisée aux petites vitesses, et le fait qu'elle soit « falsifiée » ne doit pas la faire totalement abandonner ; il reste cependant possible que même à ces vitesses, elle soit un jour falsifiées [par exemple si le temps n'était pas un paramètre indifférent].
Cette définition a l'avantage de pouvoir être étendue aux théories qui ne font que des prévisions probabilistes. On peut considérer que l'ensemble inférieur (l'ensemble des situations corroborant la théorie) est un ensemble flou, tel qu'une situation appartient à cet ensemble avec un coefficient égal à la probabilité, d'après la théorie, que cette situation plutôt qu'une autre se produise. On obtient ainsi une mesure quantitative plutôt qu'une corroboration vrai/faux. Une théorie est alors encadrée entre deux « ensembles flous » où plutôt applications de l'ensemble des situations dans [0;1].
Le degré de falsifiabilité ne suffit pas pour départager des théories : prendre la théorie physique actuelle + l'énoncé « demain naîtra un éléphant rose » ; cette théorie est plus falsifiable que la physique et fait les mêmes prédictions passées. Elle sera probablement falsifiée demain, mais demain on pourra opposer à la physique une autre théorie plus falsifiable, incluant la physique + l'énoncé « après-demain naîtra un éléphant rose ». Il faudrait considérer qu'en quelque sorte toutes les théories de la forme (physique actuelle + éléphant rose à telle date) constituent une seule théorie concurrente de la physique, déjà falsifiée.
Si l'invariance temporelle (l'avenir est semblable au passé) a été observée dans le passé, le critère de simplicité justifie de la postuler, ce qui n'est pas le cas du critère de falsifiabilité.
Pour obtenir une théorie invariante (qui sera plus simple) à partir d'une théorie non temporellement invariante, faisant les mêmes prédications passées : prendre une formalisation de la théorie non temporellement invariante, et remplacer chaque affirmation contenant une date absolue par les formules « vrai » ou « faux » selon que l'affirmation est vraie ou fausse au moment présent [Ne fonctionne que si la théorie ne combine pas la date avec d'autres quantités, style date+durée], ce qui revient à remplacer la date par sa valeur actuelle dans toutes les formules (formules closes) non temporellement invariantes.
Problème de l'induction : modélisable par des coefficients d'association, cf. réseau de neurones associatifs. Un objet non-corbeau non-noir renforce l'association « non-noir -> non-corbeau » mais pas l'association logiquement équivalente « corbeau -> noir » (puisqu'on n'a pas observé de corbeau).
Inadéquation du critère de falsifiabilité dans certains cas :
S'il existe un nombre fini de prédictions qu'une théorie doit faire (de situations testables [soit parce que le nombre de tests que l'on peut faire est fini, soit parce que la théorie décrit un phénomène intrinsèquement fini]) et que toutes les expériences correspondantes ont déjà été faites au moment de l'ébauche d'une théorie, alors cette théorie n'est pas falsifiable (seul critère : la théorie prédit correctement toutes les observations passées ; elle ne pourra jamais être contredite dans le futur [alors, on utilise usuellement le critère de simplicité pour discerner entre toutes les théories prédisant correctement les faits]). Ex : théories historiques (histoire, paléontologie...). Idem si le nombre de prédictions est infini mais que les résultats sont déjà connus (est-ce possible ?).
Si le nombre de prédictions est fini, mais si toutes les expériences n(ont pas encore été menées, mais que ce nombre est quand même connu comme fini au moment de l'élaboration de la théorie, la théorie est à ce moment falsifiable. Par contre, dans ce cas, la discipline qui a élaboré la théorie, prise dans son ensemble, n'est pas falsifiable, puisqu'une fois les observations faites elle finira par trouver une théoriie qui les décrira toutes. Et si le nombre de prédictions est fini, mais non encore connu comme fini, la théorie semble falsifiable alors qu'un jour elle risque de ne plus l'être.
Si le nombre de contraintes est fini, il existe toujours une théorie qui les satisfait (ex : énumérer toutes les situations possibles avec les résultats correspondants). Alors, seule possibilité = critère de simplicité ?
Ajouter pour la scientificité : une affirmation scientifique doit être falsifiable, mais, en plus, compatible avec les observations actuelles au sens où sur les observations actuelles, sa négation doit être falsifiée.
(22/05/2002)
Souvent : opinion que les sciences "historiques" (histoire, archéologie, paléontologie) ne sont pas vraiment scientifiques car uniquement construction de scénarios et pas prédictions => pas critère de réfutabilité. Mais scénarios font des prédictions sur les découvertes à venir : par exemple on prédit qu'on ne trouvera jamais tel vestige archéologique à telle époque, ou qu'on ne verra jamais un document historique mentionnant un fait contraire au scénario admis, etc. => ces sciences sont effectivement prédictives.