SAMENVATTING
12.3 Hypothesediscriminatie
Bij hypothesediscriminatie
gaat het erom zoveel mogelijk hypothesen uit te kunnen sluiten, zodat er uiteindelijk
precies één diagnose overblijft. Daartoe is het zaak om extra metingen te doen die
zoveel mogelijk informatie geven. De Shannon-entropie is een functie die de afstand meet
van een verzameling kandidaat-hypothesen tot een ideale hypothese. Met behulp van deze
functie kan ook de entropie van een eventueel te kiezen meting worden berekend, en kan die meting gekozen worden die de afstand
tot de ideale hypothese zoveel mogelijk verkleint. Deze methode is geheel theoretisch van
aard. Om in de praktijk bruikbaar te zijn, moet men ook rekening houden met andere meer
praktische aspecten:
kosten en risicos van verschillende metingen
het belang van het opsporen van een bepaalde fout (bijvoorbeeld als een patiënt
zowel kanker als griep heeft, moet de uiteindelijke diagnose in ieder geval op kanker
wijzen)
de coherentie van de dialoog met de gebruiker (de arts of reparateur moet de
volgorde van de gevraagde metingen logisch vinden).