DTL– Big Data Expo special 8 – Het belang van onzekerheid bij ML modellen

27:40
 
Delen
 

Manage episode 246988888 series 2576241
Van Jurjen Rienk Helmus / Walter van der Scheer / Lex Knape and Jurjen Helmus, ontdekt door Player FM en onze gemeenschap - copyright toebehorend aan de uitgever, niet aan Player FM. Audio wordt direct van hun servers gestreamd. Klik de abonneren-knop aan om updates op Player FM te volgen of plak de feed URL op andere podcast apps.

Data science-producten algoritmes voorspellingen: op het plaatje staat een kat; deze website bezoeker zal een advertentie voor product X kopen; de waarde van dit huis is € 250.000. Door een reeks informatie samen te vatten in één eenvoudige voorspelling, wordt de informatie bruikbaar: we kunnen de juiste advertentie op het juiste moment weergeven en we weten voor welke prijs we ons huis op de markt moeten brengen. Machine learning algoritmes leveren ons punt schattingen (getallen of klassen). Voorspellingen worden echter nooit met 100% zekerheid gegeven. De uitkomt van een puntschatting komt met een distributie van onzekerheid. Deze distributie zien we echter niet, waardoor algoritmes een schijnzekerheid geven! Sterker, zelfs als de uitkomst van een algoritme onzeker is krijg je alsnog een uitkomst. Moeten we dat willen in bijvoorbeeld de healthcare sector? Zouden we niet liever “geen uitkomst” willen geven als een voorspelling te onzeker is? We gaan in gesprek met Lieke Kools en Richard Bartels over het belang van onzekerheid in ML modellen. We praten over hoe we data scientists en eindgebruikers hiermee moeten leren omgaan.

Zie verder https://vantage-ai.com/nl/ https://www.dedataloog.nl en het blog op de website van Big Data Expo https://www.bigdata-expo.nl/nl/beyond-point-estimates-importance-uncertainty-machine-learning

113 afleveringen