SAMENVATTING

12.3 Hypothesediscriminatie

Bij hypothesediscriminatie gaat het erom zoveel mogelijk hypothesen uit te kunnen sluiten, zodat er uiteindelijk precies één diagnose overblijft. Daartoe is het zaak om extra metingen te doen die zoveel mogelijk informatie geven. De Shannon-entropie is een functie die de afstand meet van een verzameling kandidaat-hypothesen tot een ideale hypothese. Met behulp van deze functie kan ook de entropie van een eventueel te kiezen meting worden berekend, en kan die meting gekozen worden die de afstand tot de ideale hypothese zoveel mogelijk verkleint. Deze methode is geheel theoretisch van aard. Om in de praktijk bruikbaar te zijn, moet men ook rekening houden met andere meer praktische aspecten:
– kosten en risico’s van verschillende metingen
– het belang van het opsporen van een bepaalde fout (bijvoorbeeld als een patiënt zowel kanker als griep heeft, moet de uiteindelijke diagnose in ieder geval op kanker wijzen)
– de coherentie van de dialoog met de gebruiker (de arts of reparateur moet de volgorde van de gevraagde metingen logisch vinden).