
Greatminds podcast
Greatminds duikt in allerlei onderwerpen die te maken hebben met software architectuur: van AI tot integratie architectuur voor ieder komt er wel wat aan bod of je nu een tech-liefhebber bent, in de software-industrie werkt, een business owner bent, of gewoon nieuwsgierig naar wat de toekomst ons kan brengen.
Greatminds podcast
Uitdagingen en strategieën tegen bias in AI
In de tweede aflevering van de greatminds podcast staan Hildo van Es, solution architect en medeoprichter van greatminds, en Robin Smits, data scientist en eigenaar van LumiML Consulting, stil bij een van de meest prangende kwesties in de wereld van kunstmatige intelligentie: bias.
Bias in AI-systemen komt voor in vele vormen. Het gaat vaak om vooroordelen over gender, etniciteit of religie. Daarnaast spelen ook aannames over beroepsgroepen een rol. AI-modellen weerspiegelen helaas vaak menselijke tekortkomingen. Dit gebeurt vooral bij grote taalmodellen (LLMs). Ze trainen namelijk met teksten die via web scraping verzameld worden. Deze teksten bevatten vaak al de vooroordelen van hun menselijke auteurs.
🔑 Belangrijkste inzichten:
- Bias begint vaak al bij de inputdata — je model kan niet ethischer zijn dan je bronmateriaal.
- RLHF is een krachtige methode om modellen te corrigeren op basis van menselijke feedback.
- Bias volledig uitsluiten lukt (nog) niet, maar je moet het actief proberen te beperken én te blijven monitoren.
📱 Connect met onze gast en host:
⏱ Tijdstempels:
00:00 – Introductie en definitie van bias
00:59 – Wat wil je juist voorkomen? De ethische uitgangspunten
04:06 – Regels & richtlijnen: EU AI Act en Microsoft framework
06:37 – Garbage in, garbage out: data bias door webscraping
10:07 – Evalueren van modellen en het belang van transparantie
14:54 – Praktische maatregelen: datakeuze, filtering, privacy
16:17 – Reinforcement Learning with Human Feedback (RLHF)
18:28 – Monitoring en feedback na livegang
19:53 – Afsluiting