Artwork

Inhoud geleverd door Info Support. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Info Support of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.
Player FM - Podcast-app
Ga offline met de app Player FM !

#20 - Het ontwikkelen van AI modellen die je kunt vertrouwen(met Niels Naglé, Bas Niesink en Joop Snijder)

27:29
 
Delen
 

Manage episode 374513126 series 3407233
Inhoud geleverd door Info Support. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Info Support of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

30 afleveringen

Artwork
iconDelen
 
Manage episode 374513126 series 3407233
Inhoud geleverd door Info Support. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Info Support of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

30 afleveringen

Alle afleveringen

×
 
Loading …

Welkom op Player FM!

Player FM scant het web op podcasts van hoge kwaliteit waarvan u nu kunt genieten. Het is de beste podcast-app en werkt op Android, iPhone en internet. Aanmelden om abonnementen op verschillende apparaten te synchroniseren.

 

Korte handleiding