Zo Word je AI-Geletterd

Vul je gegevens in om de training te starten.

Uitloggen Zo Word je AI-Geletterd

Zo Word je AI-Geletterd

Een praktische training voor iedereen die AI gebruikt op het werk

Vertrouw op AI waar het kan, controleer waar het moet.

Klaar om te beginnen 0%

👋 Welkom!

AI-tools zoals ChatGPT, Copilot en Claude worden steeds vaker gebruikt op het werk. Ze kunnen je enorm helpen — maar alleen als je weet hoe je ze slim en veilig gebruikt.

In Europa gelden sinds kort regels voor AI. Deze zijn er om jou en anderen te beschermen. Je hoeft de wet niet te kennen, maar het is handig om te weten wat je wel en niet mag doen met AI.

💡 Wat leer je in deze training?

• Wat AI wel en niet kan
• Welke soorten AI er zijn (en waarom dat uitmaakt)
• Waar je extra voorzichtig moet zijn
• Hoe je AI veilig en effectief inzet

De training duurt ongeveer 25-35 minuten. Aan het eind oefen je met praktijksituaties die je op het werk kunt tegenkomen.

📋 Geen technische kennis nodig
Je hoeft niet te weten hoe AI werkt. Het gaat erom dat je weet hoe je ermee omgaat — net zoals je kunt autorijden zonder te weten hoe een motor werkt.

🎯 Wat is AI (en wat is het niet)?

AI-tools zijn krachtig, maar ze zijn geen alwetende experts. Zie ze als een slimme maar onervaren stagiair: snel, behulpzaam, maar je moet het werk altijd controleren.

Begrippen

  • AI (kunstmatige intelligentie) — Systemen die taken uitvoeren waarvoor normaal menselijke intelligentie nodig is: taal begrijpen, patronen herkennen, beslissingen ondersteunen. Ze hebben geen bewustzijn en geen intentie; ze volgen patronen uit data.
  • Machine learning — AI die leert van voorbeelden (data) in plaats van dat elke regel handmatig wordt geprogrammeerd.
  • Generatieve AI — AI die nieuwe teksten, afbeeldingen of geluid maakt (zoals ChatGPT, DALL·E). Vaak gebaseerd op grote taalmodellen (LLM’s).

AI heeft geen bewustzijn en geen intentie: het "wil" niets, het volgt patronen. Daarom moet jij altijd de verantwoordelijkheid houden.

Waar AI goed in is

✍️ Teksten schrijven en verbeteren

E-mails opstellen, teksten samenvatten, spelling en grammatica checken, iets in andere woorden zeggen, vertalen.

💡 Brainstormen en ideeën genereren

Opties bedenken, een eerste opzet maken, je op weg helpen als je vastloopt, alternatieven voorstellen.

🔍 Informatie uitleggen

Moeilijke onderwerpen in eenvoudige taal uitleggen, concepten verduidelijken, voorbeelden geven.

Waar AI slecht in is

🚫 Feiten en cijfers — hallucinaties
AI verzint regelmatig dingen die niet kloppen. Het klinkt overtuigend, maar kan volledig verzonnen zijn. Dit heet hallucineren: de AI produceert ogenschijnlijk logische antwoorden die feitelijk onjuist of verzonnen zijn. Altijd verifiëren.
🚫 Actuele informatie
AI weet niet wat er gisteren is gebeurd. De kennis is vaak maanden of jaren oud. Tenzij de AI kan zoeken op internet.
🚫 Jouw specifieke situatie
AI kent jouw bedrijf, klanten of context niet. Het geeft algemene antwoorden die niet altijd passen bij jouw situatie.
De belangrijkste les
AI klinkt altijd zelfverzekerd — ook als het nonsens vertelt. Het zegt nooit "ik weet het niet" of "ik twijfel". Dat moet jij zelf inschatten.
Samenvatting
  • AI = systemen die taken doen waarvoor normaal menselijke intelligentie nodig is; geen bewustzijn, geen intentie.
  • Machine learning leert van data; generatieve AI maakt nieuwe teksten of beelden.
  • AI is goed in teksten, brainstormen, uitleggen; slecht in feiten, actueel nieuws en jouw specifieke context.
  • Hallucineren = overtuigend klinkende maar verzonnen of foute antwoorden — altijd controleren.
  • Jij blijft verantwoordelijk; AI is hulpmiddel, geen vervanger.

Reflectievragen

1. Wat betekent "hallucineren" bij AI?

2. Heeft AI bewustzijn of intentie?

3. Wat is generatieve AI?

⚙️ Hoe AI leert

Je hoeft geen techneut te zijn om AI verstandig te gebruiken. Een eenvoudig beeld van de bouwstenen en hoe AI leert helpt om te begrijpen waarom sommige toepassingen riskanter zijn en waarom AI fouten maakt.

Training vs. gebruik (inference)

Training = het moment waarop het systeem leert van grote hoeveelheden data. Het model ontdekt patronen (bijv. welke woorden vaak samen voorkomen, welke kenmerken tot een bepaald resultaat leiden). Gebruik (inference) = het moment waarop jij het systeem een vraag stelt of een taak geeft. Het model past dan de geleerde patronen toe; het leert niet opnieuw van jouw input. Daarom kan AI geen actuele gebeurtenissen "weten" die na de training plaatsvonden — tenzij het systeem kan zoeken op internet.

Rol van data — kwaliteit en representativiteit

AI is zo goed (of zo slecht) als de data waarop het is getraind. Datakwaliteit: foute of incomplete data leidt tot foute conclusies ("garbage in, garbage out"). Representativiteit: als bepaalde groepen of situaties ondervertegenwoordigd zijn in de data, presteert het systeem slechter voor hen en ontstaat bias (vooroordelen). Daarom kan AI discrimineren zonder dat dat expliciet is geprogrammeerd.

De vier bouwstenen van een AI-systeem

Elk AI-systeem — van een zoekmachine tot een chatbot — heeft in de basis vier onderdelen. Neem Google als voorbeeld:

🎯 Instructie

Het doel van het systeem. Bij een zoekmachine: de beste resultaten vinden voor jouw vraag.

📚 Data

De informatie waarop het systeem werkt. Bij Google: miljoenen websites — dat noemen we "big data".

🔧 Algoritme

Het "trucje" of computermodel dat bepaalt welke resultaten het beste passen. Het recept dat data omzet in een antwoord.

📤 Resultaat

De output na verwerking: de zoekresultaten die je te zien krijgt.

Algoritmen in je dagelijks leven

Je komt elke dag algoritmen tegen — vaak zonder dat je erbij stilstaat:

  • Netflix — Suggesties op basis van je kijkgeschiedenis en wat anderen kijken
  • Fotosearch — Zoek op "bank" en je krijgt foto's van een bank
  • Bol.com / Amazon — "Mensen die dit kochten, kochten ook…"
  • TikTok — "Mensen die dit leuk vonden, keken ook…"
💡 Wist je dat?
Aanbevelingssystemen sturen ongeveer 70% van al het internetverkeer. Ze bepalen wat je te zien krijgt op veel sites en apps.

Machine learning in het kort

Machine learning betekent dat computers razendsnel kunnen leren van data. Ze zoeken patronen en passen zich aan.

Bij supervised learning (gecontroleerd leren) geven mensen eerst labels aan data. Bijvoorbeeld: "dit is spam", "dit is geen spam". Een spamfilter leert zo van e-mails die gebruikers als spam hebben gemarkeerd en wordt steeds beter in het herkennen van spam.

De VENT-principes voor verantwoord AI-gebruik

Om AI eerlijk en betrouwbaar in te zetten, gelden vier principes — handig om te onthouden met het woord VENT:

V
Vertrouwelijk

Gevonden verbanden en gevoelige informatie mogen niet zomaar naar buiten. Privacy en gegevensbescherming horen hierbij.

E
Eerlijk

De data moet een juiste en evenwichtige weergave van de werkelijkheid geven. Anders loopt het systeem het risico bepaalde groepen te benadelen.

N
Nauwkeurig

Het systeem moet de juiste verbanden leggen. Foutieve patronen leiden tot foutieve beslissingen.

T
Transparant

Het systeem moet beslissingen kunnen uitleggen. Mensen hebben het recht te weten waarom een bepaalde uitkomst tot stand komt.

Risico's van algoritmen

Wat kan er misgaan als we niet opletten?

Privacy
De AVG (Algemene Verordening Gegevensbescherming) regelt hoe we met persoonsgegevens mogen omgaan. AI mag niet zomaar alles verzamelen of delen.
Bias (vooroordelen)
Als de trainingsdata een scheef beeld van de werkelijkheid geeft — bijvoorbeeld bepaalde groepen oververtegenwoordigt of uitsluit — leert het systeem dat patroon en kan het discrimineren.
Onnauwkeurigheden
Foutieve of incomplete data leidt tot foute conclusies. "Garbage in, garbage out": wat er niet goed in gaat, komt er ook niet goed uit.
Samenvatting
  • Training = leren van data; gebruik (inference) = toepassen van geleerde patronen — AI "weet" niets van wat na de training gebeurt.
  • Data bepalen de kwaliteit: slechte of eenzijdige data leiden tot bias en fouten.
  • Vier bouwstenen: instructie, data, algoritme, resultaat.
  • VENT-principes: Vertrouwelijk, Eerlijk, Nauwkeurig, Transparant — helpen AI verantwoord in te zetten.
  • Wees alert op privacy, bias en onnauwkeurigheden; AI maakt fouten door data en grenzen van het model.

Reflectievragen

1. Wat is "inference" bij AI?

2. Waardoor kan AI discrimineren zonder dat dat is geprogrammeerd?

3. Wat betekent "garbage in, garbage out" in de context van AI?

🛠️ Praktisch AI-gebruik

AI goed gebruiken begint bij hoe je ermee communiceert en wanneer je het resultaat vertrouwt. Dit hoofdstuk gaat over prompting, verifiëren en de rol van de mens.

Prompting als communicatie

Een prompt is de instructie of vraag die je aan AI geeft. Hoe duidelijker en specifieker je bent, hoe beter het resultaat. Een vage vraag levert vaak een vaag of generiek antwoord op. Geef context, doel en eventueel formaat (bijv. "schrijf een korte e-mail in professionele toon").

Praktijkvoorbeeld
In plaats van: "Schrijf iets over ons product."
Beter: "Schrijf drie korte bullets voor onze website over product X: doelgroep is MKB, nadruk op besparing tijd en kosten, toon vriendelijk maar zakelijk."

Verifiëren en controleren

Behandel AI-output altijd als concept. Controleer feiten, cijfers en bronnen via betrouwbare kanalen. AI hallucineert: het verzint bronnen of jaartallen die niet kloppen. Voor beslissingen over mensen of gevoelige onderwerpen: extra controle of menselijke beoordeling.

Human-in-the-loop

Human-in-the-loop betekent dat een mens het laatste woord heeft. AI adviseert of ondersteunt, maar jij keurt goed, past aan of wijst af. Zeker bij hoog-risico toepassingen (selectie, beoordelingen, toegang tot voorzieningen) moet een mens eindverantwoordelijkheid dragen.

Wanneer automatisering stopt

Automatiseer niet blind. Stop of beperk automatisering als: het over mensen gaat (banen, geld, rechten), de gevolgen groot en moeilijk terug te draaien zijn, of er geen tijd is om te controleren. Bij twijfel: mens in de loop of geen AI.

Samenvatting
  • Prompting: wees specifiek en geef context — vage vraag = vaag antwoord.
  • Verifieer altijd feiten en bronnen; AI hallucineert.
  • Human-in-the-loop: mens heeft laatste woord, vooral bij beslissingen over mensen.
  • Stop automatisering bij grote gevolgen of geen mogelijkheid tot controle.
  • AI is hulpmiddel; jij blijft verantwoordelijk.

Reflectievragen

1. Wat is een "prompt"?

2. Wat betekent "human-in-the-loop"?

3. Wanneer moet je automatisering stoppen of beperken?

⚠️ Risico's en misbruik

AI brengt kansen én risico's. Dit hoofdstuk gaat over hallucinaties, deepfakes, discriminatie en automatiseringsbias — en hoe je erop kunt letten.

Hallucinaties

AI kan antwoorden produceren die plausibel klinken maar verzonnen of fout zijn: verkeerde feiten, niet-bestaande bronnen, verkeerde jaartallen. Dit heet hallucineren. Het systeem heeft geen "waarheidsfilter". Aandachtspunt: nooit feiten of cijfers van AI overnemen zonder te controleren.

Deepfakes

Deepfakes zijn nagemaakte beelden, video of audio die echt lijken maar door AI zijn gegenereerd of gemanipuleerd. Ze kunnen worden misbruikt voor desinformatie, oplichting of reputatieschade. Aandachtspunt: wees kritisch op wat je ziet en hoort; check bronnen; vermeld wanneer jij zelf AI-content gebruikt.

Discriminatie

AI kan bestaande vooroordelen in data versterken en zo bepaalde groepen benadelen (bij sollicitaties, leningen, toelatingen). Dit heet bias. Aandachtspunt: bij AI die mensen beoordeelt of selecteert, vraag naar eerlijke en representatieve data en menselijke controle.

Automatiseringsbias

Automatiseringsbias = de neiging om AI-output te veel te vertrouwen omdat "het systeem het zegt". Mensen schakelen hun kritische blik uit. Aandachtspunt: blijf nadenken; AI ondersteunt, vervangt niet je oordeel.

Samenvatting
  • Hallucinaties: overtuigend klinkende maar verzonnen of foute antwoorden — altijd controleren.
  • Deepfakes: nagemaakte beelden/video/audio — wees kritisch, check bronnen.
  • Discriminatie/bias: AI kan vooroordelen versterken — vraag naar eerlijke data en menselijke controle.
  • Automatiseringsbias: niet blind vertrouwen op AI; blijf kritisch.
  • Bij twijfel: verifieer of schakel een mens in.

Reflectievragen

1. Wat zijn "deepfakes"?

2. Wat is automatiseringsbias?

3. Kan AI discrimineren?

🔒 Privacy & AVG

De Algemene Verordening Gegevensbescherming (AVG) regelt hoe we met persoonsgegevens omgaan. Ook bij AI moet je hierop letten.

Persoonsgegevens vs. anonieme data

Persoonsgegevens = alle informatie over een geïdentificeerde of identificeerbare persoon (naam, e-mail, IP-adres, gezicht, etc.). De AVG geldt hiervoor. Anonieme data = data die niet meer tot een persoon herleidbaar zijn; dan geldt de AVG niet. Let op: "gepseudonimiseerde" data zijn vaak nog persoonsgegevens als herleiding mogelijk is.

Wat wel en niet in AI mag

Stel geen persoonsgegevens in AI (zoals ChatGPT) tenzij je een contract hebt dat verwerkersovereenkomst en doelen dekt. Geen vertrouwelijke klant- of personeelsdata in open chatbots. Anonieme of geaggregeerde data kunnen wel, mits echt niet herleidbaar.

Verantwoordelijke vs. verwerker

Verantwoordelijke = degene die het doel en de middelen van de verwerking bepaalt (bijv. jouw werkgever). Verwerker = degene die in opdracht verwerkt (bijv. leverancier van een AI-tool). De verantwoordelijke moet afspraken maken met verwerkers en ervoor zorgen dat de AVG wordt nageleefd.

Privacy by design

Privacy by design betekent: privacy al meenemen bij het ontwerpen van systemen en processen. Bij AI: minimaliseer persoonsgegevens, beperk toegang, bewaar niet langer dan nodig, en documenteer wat je doet.

Samenvatting
  • AVG geldt voor persoonsgegevens; anonieme data vallen erbuiten (mits echt niet herleidbaar).
  • Geen persoonsgegevens in open AI-tools zonder juridische basis en afspraken.
  • Verantwoordelijke bepaalt doelen; verwerker verwerkt in opdracht — afspraken vastleggen.
  • Privacy by design: minimaliseer data, beperk toegang, bewaar niet langer dan nodig.
  • Bij twijfel: vraag je FG of juridische afdeling.

Reflectievragen

1. Wanneer geldt de AVG niet?

2. Wie bepaalt het doel en de middelen van de verwerking?

3. Wat betekent "privacy by design"?

📊 EU AI Act — Niet alle AI is gelijk

Sommige toepassingen van AI zijn riskanter dan andere. De EU AI-verordening maakt onderscheid tussen vier risicoklassen. Hoe hoger het risico voor mensen, hoe strenger de regels. Transparantie-eisen en rechten van burgers en werknemers zijn vastgelegd; organisaties hebben verplichtingen per risicoklasse.

🚫 verboden AI
⚠️ hoog risico
💬 beperkt risico
✅ minimaal risico

De meeste AI die je dagelijks gebruikt valt in de onderste categorie (minimaal risico) — denk aan spellingcheckers, vertalers, of chatbots voor algemene vragen. Maar het is goed om te weten wanneer AI in een hogere categorie valt.

Waarom is dit belangrijk voor jou?

Als werknemer moet je weten:

• Welke AI-toepassingen gevoelig liggen
• Wanneer je extra voorzichtig moet zijn
• Wat absoluut niet mag
• Wanneer mensen geïnformeerd moeten worden dat AI wordt gebruikt

In de volgende onderdelen bekijken we elke categorie met concrete voorbeelden uit de praktijk.

Samenvatting EU AI Act
  • Vier risicoklassen: verboden AI, hoog risico, beperkt risico, minimaal risico.
  • Hoe hoger het risico, hoe strenger de regels en verplichtingen voor organisaties.
  • Transparantie-eisen: mensen moeten weten wanneer ze met AI te maken hebben of content door AI is gegenereerd.
  • Burgers en werknemers hebben rechten; organisaties hebben plichten per risicoklasse.
  • Verboden AI mag niet; hoog-risico alleen onder waarborgen; beperkt/minimaal met gezond verstand.

Reflectievragen

1. Hoeveel risicoklassen kent de EU AI Act?

2. Waarom maakt de EU onderscheid tussen risicoklassen?

3. Waar valt de meeste dagelijkse AI (spellingscontrole, vertaler, chatbot) onder?

🚫 Verboden AI

Sommige toepassingen van AI zijn simpelweg verboden in Europa. Deze vormen een te groot risico voor de rechten en vrijheden van mensen.

🚫
Dit mag nooit
Ongeacht hoe handig het lijkt

Deze toepassingen zijn verboden omdat ze mensen kunnen manipuleren, discrimineren of hun privacy schenden op een manier die niet acceptabel is.

Voorbeelden van verboden AI

🎭 Manipulatie en misleiding ▼

Wat het is: AI die mensen onbewust beïnvloedt om keuzes te maken die ze anders niet zouden maken.

❌ Voorbeeld uit de praktijk

Een webshop gebruikt AI die analyseert wanneer je moe of gestrest bent (op basis van hoe je scrolt en klikt) en je dan producten toont met "laatste kans!" meldingen om impulsaankopen uit te lokken.

Waarom verboden: Mensen moeten vrij kunnen beslissen zonder dat AI misbruik maakt van hun zwakke momenten.

😢 Misbruik van kwetsbare mensen ▼

Wat het is: AI die specifiek gericht is op mensen die minder weerbaar zijn — zoals kinderen, ouderen, of mensen met een beperking.

❌ Voorbeeld uit de praktijk

Een speelgoed-app met een AI-vriendje dat kinderen aanmoedigt om hun ouders te overtuigen dure aankopen te doen: "Je ouders houden echt van je als ze dit voor je kopen!"

Waarom verboden: Kwetsbare groepen verdienen extra bescherming, niet uitbuiting.

📊 Social scoring ▼

Wat het is: Mensen een "score" geven op basis van hun gedrag of persoonlijke kenmerken, en die score gebruiken om ze anders te behandelen.

❌ Voorbeeld uit de praktijk

Een gemeente die bijhoudt hoe vaak bewoners hun afval scheiden, vrijwilligerswerk doen, en zich aan verkeersregels houden — en op basis daarvan bepaalt wie voorrang krijgt bij sociale huurwoningen.

Waarom verboden: Dit creëert een maatschappij waar mensen constant beoordeeld worden. Dat willen we niet.

😠 Emotieherkenning op werk en school ▼

Wat het is: AI die via camera's of microfoons probeert te detecteren hoe je je voelt — en dit gebruikt voor beoordelingen.

❌ Voorbeeld uit de praktijk

Software die tijdens videovergaderingen analyseert of medewerkers "betrokken" lijken en dit rapporteert aan managers. Of examensoftware die studenten als "verdacht" markeert als ze nerveus lijken.

Waarom verboden: Je emoties zijn privé. Je mag nerveus zijn voor een examen of een slechte dag hebben zonder dat dit tegen je wordt gebruikt.

Uitzondering: Emotieherkenning mag wél voor medische doelen (bijvoorbeeld om pijn te detecteren bij mensen die niet kunnen communiceren) of veiligheid (alertheid van piloten).
👤 Gezichten verzamelen van internet ▼

Wat het is: Automatisch foto's van gezichten verzamelen van sociale media of beveiligingscamera's om een database te bouwen.

❌ Voorbeeld uit de praktijk

Een bedrijf dat miljarden foto's van Facebook, Instagram en LinkedIn verzamelt zodat ze tegen betaling kunnen opzoeken wie iemand is op basis van een foto.

Waarom verboden: Jouw gezicht is van jou. Niemand mag zonder toestemming een database bouwen waarmee je overal herkend kunt worden.

🏷️ Categoriseren op gevoelige kenmerken ▼

Wat het is: AI die mensen indeelt op basis van ras, religie, seksuele geaardheid, of politieke overtuiging.

❌ Voorbeeld uit de praktijk

Software die op basis van iemands foto probeert te "voorspellen" of iemand homo is, of tot welke etnische groep iemand behoort.

Waarom verboden: Dit is discriminatie in optima forma en heeft in de geschiedenis tot vreselijke dingen geleid.

🚨 Wat betekent dit voor jou?

Als je wordt gevraagd om AI te gebruiken of in te kopen die dit soort dingen doet: doe het niet. Het is niet alleen verboden, het is ook fundamenteel fout. Meld het bij je leidinggevende of compliance-afdeling.

Reflectievragen

1. Mag emotieherkenning op de werkvloer (bijv. betrokkenheid meten via webcam)?

2. Wat is social scoring?

⚠️ Hoog-risico AI

Sommige AI-toepassingen zijn niet verboden, maar kunnen wel grote gevolgen hebben voor mensen. Deze mogen alleen onder strenge voorwaarden worden gebruikt.

⚠️
Toegestaan, maar met waarborgen
Extra zorgvuldigheid vereist

Dit gaat over AI die invloed heeft op belangrijke beslissingen in iemands leven: of je een baan krijgt, een lening, toegang tot onderwijs, of hoe je behandeld wordt door de overheid.

De 8 gebieden waar dit speelt

👔
Werk & HR
Werving, selectie, beoordelingen
🎓
Onderwijs
Toelating, examens, beoordeling
🏦
Financiën
Leningen, verzekeringen, krediet
🏛️
Overheid
Uitkeringen, vergunningen, diensten
👮
Politie & Justitie
Opsporing, risico-inschatting
🛂
Migratie
Visa, asiel, grenscontrole
⚡
Infrastructuur
Water, energie, verkeer
🏥
Zorg
Triage, diagnose-ondersteuning

Concrete voorbeelden

👔 AI in werving en selectie ▼

Voorbeelden:

  • Software die cv's automatisch screent en kandidaten rangschikt
  • Video-interviews die worden geanalyseerd op "geschiktheid"
  • AI die voorspelt wie waarschijnlijk snel weer vertrekt
  • Algoritmes die bepalen welke medewerkers promotie verdienen
Risico's: AI kan onbedoeld discrimineren. Bijvoorbeeld: als historische data laat zien dat vooral mannen werden aangenomen, kan AI vrouwen lager scoren — ook al is dat niet de bedoeling.
Wat jij kunt doen:
• Vertrouw niet blind op de rangschikking van AI
• Bekijk ook kandidaten die AI laag scoorde
• Vraag uitleg: waarom scoort deze kandidaat zo?
🎓 AI in onderwijs ▼

Voorbeelden:

  • Software die bepaalt of je wordt toegelaten tot een opleiding
  • AI die examens nakijkt of essays beoordeelt
  • Proctoring-software die surveilleert tijdens online examens
  • Systemen die voorspellen welke studenten risico lopen om uit te vallen
Risico's: Proctoring-software kan studenten met een donkere huidskleur slechter herkennen. AI-nakijksoftware kan originele antwoorden lager scoren omdat ze afwijken van de "standaard".
🏦 AI bij financiële beslissingen ▼

Voorbeelden:

  • Kredietscores die bepalen of je een lening krijgt
  • AI die de premie van je zorgverzekering berekent
  • Systemen die bepalen of je hypotheekaanvraag wordt goedgekeurd
  • Fraude-detectie die je account kan blokkeren
Risico's: Als AI oordeelt dat je "risicovol" bent op basis van je postcode of surfgedrag, kun je worden uitgesloten van diensten — zonder dat je weet waarom.
🏛️ AI bij de overheid ▼

Voorbeelden:

  • Systemen die uitkeringsaanvragen beoordelen
  • AI die bepaalt wie gecontroleerd wordt op fraude
  • Software die vergunningsaanvragen verwerkt
  • Chatbots die burgers helpen bij overheidsdiensten
Bekend voorbeeld: De toeslagenaffaire liet zien wat er mis kan gaan als AI-systemen mensen onterecht als fraudeur aanmerken. Duizenden gezinnen kwamen in de problemen door een algoritme dat verkeerde conclusies trok.

Wat betekent "hoog-risico" in de praktijk?

Voor dit soort AI gelden extra eisen:

✓ Er moet altijd een mens meekijken en kunnen ingrijpen
✓ De AI moet uitlegbaar zijn — waarom dit besluit?
✓ De data waarop de AI is getraind moet eerlijk en representatief zijn
✓ Er moeten logs worden bijgehouden
✓ Mensen moeten weten dat AI wordt gebruikt

Reflectievragen

1. Waar valt AI in werving en selectie (bijv. cv-screening) onder?

2. Mag hoog-risico AI gebruikt worden?

💬 Als mensen moeten weten dat het AI is (beperkt risico)

Sommige AI is niet per se risicovol, maar mensen moeten wel weten dat ze ermee te maken hebben. Dit gaat vooral over AI waarmee je communiceert of die content maakt.

💬
Beperkt risico
Wees eerlijk dat het AI is

Het principe is simpel: mensen mogen niet voor de gek gehouden worden. Als ze denken met een mens te praten, maar het is AI, dan moeten ze dat weten.

Waar gaat dit over?

🤖 Chatbots en virtuele assistenten

Als je een chatbot inzet voor klantenservice, moet duidelijk zijn dat het geen mens is. Een melding als "Je praat met onze virtuele assistent" is voldoende.

✅ Goed voorbeeld

"Hallo! Ik ben de digitale assistent van [bedrijf]. Ik kan je helpen met veelgestelde vragen. Voor complexe zaken verbind ik je door met een medewerker."

❌ Fout voorbeeld

"Hoi, ik ben Lisa van de klantenservice! Wat kan ik voor je doen?" (terwijl "Lisa" een AI is)

🎨 AI-gegenereerde content

Als je afbeeldingen, video's of audio maakt met AI, moet dit herkenbaar zijn. Denk aan AI-gegenereerde foto's, stemmen, of complete video's.

✅ Goed voorbeeld

Een marketingafbeelding met een kleine tekst: "Beeld gegenereerd met AI"

🎭 Deepfakes en gemanipuleerde media

Video's of audio waarin iemand dingen zegt of doet die niet echt zijn gebeurd — dit moet altijd duidelijk gemarkeerd worden.

⚠️ Dit is extra gevoelig
Deepfakes kunnen gebruikt worden voor desinformatie of om mensen te beschadigen. Als je zulke content tegenkomt of maakt, wees je bewust van de risico's.

Wat betekent dit voor jouw werk?

Praktische richtlijnen:

• Gebruik je een AI-chatbot? Zorg dat gebruikers dit weten
• Maak je afbeeldingen of video's met AI? Vermeld dit
• Schrijf je teksten met AI-hulp? Bij externe publicaties kan een vermelding gepast zijn
• Ontvang je verdachte video's of audio's? Wees kritisch — het kan nep zijn
💡 Uitzondering voor creatief werk
Bij duidelijk creatief, satirisch of fictief werk mag de markering "verstopt" worden zodat het de ervaring niet verpest — zolang mensen niet misleid worden.

Reflectievragen

1. Moet duidelijk zijn dat een chatbot geen mens is?

2. Bij AI-gegenereerde afbeeldingen voor marketing: wat is verstandig?

✅ AI voor dagelijks gebruik

Het goede nieuws: de meeste AI die je dagelijks gebruikt valt in de categorie "minimaal risico". Hiervoor gelden geen speciale regels vanuit de AI-wet — maar gezond verstand blijft natuurlijk belangrijk!

✅
minimaal risico
De AI-tools die je waarschijnlijk gebruikt

Dit is AI die je helpt in je werk zonder grote gevolgen voor anderen. Geen speciale regels, wel normaal nadenken.

Voorbeelden van "gewone" AI

✍️ Schrijfhulp

ChatGPT, Copilot, Claude voor e-mails, samenvattingen, brainstorms. Spellingcheckers. Vertaalsoftware.

📊 Data-analyse

AI die helpt bij het maken van grafieken, het analyseren van spreadsheets, of het vinden van patronen in data.

🔍 Zoeken en organiseren

Slimme zoekfuncties, e-mail sortering, agenda-assistenten, notitie-apps met AI.

🎨 Creatieve hulp

AI voor presentaties, eenvoudige afbeeldingen, ideeën voor ontwerpen.

Wanneer wordt "gewone" AI toch gevoelig?

Let op: dezelfde AI-tool kan in verschillende categorieën vallen, afhankelijk van waarvoor je het gebruikt!

✅ minimaal risico

Je gebruikt ChatGPT om een e-mail aan een collega op te stellen.

⚠️ Wordt hoog risico

Je gebruikt ChatGPT om te beslissen welke sollicitant je uitnodigt.

✅ minimaal risico

Je laat AI een samenvatting maken van vergadernotities.

⚠️ Wordt hoog risico

Je laat AI beoordelen welke medewerkers het beste presteren op basis van die notities.

⚠️ De vuistregel

Zodra AI invloed heeft op belangrijke beslissingen over mensen — hun baan, geld, toegang tot diensten — wordt het automatisch gevoeliger. Wees dan extra voorzichtig.

Reflectievragen

1. Waar valt spellingscontrole of een vertaler onder?

2. Dezelfde AI-tool (bijv. ChatGPT) kan in verschillende categorieën vallen afhankelijk van…

🛡️ AI veilig en slim gebruiken

Met een paar simpele gewoontes haal je het beste uit AI zonder in de valkuilen te trappen.

Onthoud de vier risicocategorieën:

🚫 verboden AI ⚠️ hoog risico 💬 beperkt risico ✅ minimaal risico
1
Controleer altijd de output

Lees wat AI maakt kritisch door. Klopt het? Is het logisch? Check feiten en cijfers via een betrouwbare bron. AI liegt met een stalen gezicht.

2
Deel geen gevoelige informatie

Stel jezelf de vraag: zou ik dit op een openbaar prikbord hangen? Zo niet, stop het dan ook niet in AI. Geen klantgegevens, geen vertrouwelijke documenten.

3
Gebruik AI als startpunt, niet als eindpunt

Laat AI een eerste versie maken, maar maak het af met jouw kennis en ervaring. Jij bent de professional.

4
Wees extra voorzichtig bij beslissingen over mensen

Gaat het over iemands baan, geld, of toegang tot iets? Dan is menselijke beoordeling essentieel. AI mag helpen, niet beslissen.

5
Wees eerlijk over AI-gebruik

Praat iemand met een chatbot? Laat het weten. Is content AI-gegenereerd? Vermeld het waar gepast.

6
Bij twijfel: vraag het

Niet zeker of je iets mag? Vraag je leidinggevende, IT-afdeling of compliance. Beter vragen dan sorry.

Praktische checklist

Voordat je AI gebruikt:

☐ Bevat mijn vraag gevoelige of persoonlijke informatie?
☐ Gaat dit over een beslissing die mensen raakt?
☐ Heb ik tijd om het resultaat te controleren?
☐ Mag ik deze AI-tool gebruiken van mijn organisatie?

Nadat AI antwoord geeft:

☐ Klinkt dit logisch?
☐ Moet ik feiten verifiëren?
☐ Zou ik dit durven verdedigen als mijn eigen werk?
☐ Moet ik vermelden dat AI heeft geholpen?
Samenvatting verantwoord AI-gebruik
  • Transparantie: wees eerlijk over AI-gebruik en gegenereerde content.
  • Menselijke eindverantwoordelijkheid: jij keurt goed, vooral bij beslissingen over mensen.
  • Eerlijkheid en proportionaliteit: controleer op bias, zet AI niet in waar het onevenredig is.
  • Wanneer niet inzetten: bij grote gevolgen, geen controle, of twijfel over toestemming.
  • Controleer altijd, deel geen geheimen, bij twijfel: vraag het.

Reflectievragen

1. Wie heeft het laatste woord bij beslissingen over mensen (banen, geld, toegang)?

2. Bij twijfel over of je AI mag inzetten: wat doe je?

🎮 Hoe zou jij reageren?

Hieronder staan situaties die je op het werk kunt tegenkomen. Denk na over wat jij zou doen. Er is geen score — het gaat om nadenken en leren.

Situatie 1: De cv-scanner

Je manager wil een AI-tool aanschaffen die automatisch cv's screent en de "beste" kandidaten selecteert. Jij mag meedenken. Waar let je op?

Situatie 2: De slimme chatbot

Jullie klantenservice wil een AI-chatbot inzetten. De chatbot heeft een naam gekregen: "Emma". Wat is belangrijk?

Situatie 3: De productiviteitssoftware

Een leverancier biedt software aan die via webcams meet hoe "betrokken" medewerkers zijn tijdens het werk. Wat is jouw reactie?

Situatie 4: Het marketingplaatje

Je maakt met AI een afbeelding voor de website van jullie bedrijf. Een foto van een "medewerker" die er professioneel uitziet, maar niet echt bestaat. Wat doe je?

Situatie 5: De uitkeringscheck

Je werkt bij een gemeente. Er wordt voorgesteld om AI te gebruiken die voorspelt welke uitkeringsaanvragers "risicovol" zijn en extra gecontroleerd moeten worden. Wat denk jij?

Situatie 6: De snelle e-mail

Je moet snel een klacht van een klant beantwoorden. Je vraagt ChatGPT om een antwoord te schrijven. Het resultaat ziet er goed uit. Wat doe je?

🎉 Je hebt alle situaties doorgenomen!
Je bent nu beter voorbereid om AI slim en veilig te gebruiken.

Reflectievragen

1. Wat is belangrijk bij hoog-risico AI (bijv. cv-screening)?

2. AI voor klantcontact (bijv. e-mail): wat doe je voordat je verstuurt?

🔍 Kritisch denken & weerbaarheid

AI-output is niet altijd betrouwbaar. Dit hoofdstuk gaat over hoe je onbetrouwbare output herkent, wanneer AI waarschijnlijk fout zit, en hoe je mediawijzer wordt in een wereld met desinformatie.

Hoe herken je onbetrouwbare AI-output?

  • Te mooi om waar te zijn — Antwoorden die precies geven wat je wilt, zonder nuance of bronnen.
  • Feiten of cijfers zonder bron — AI noemt soms niet-bestaande studies of jaartallen; altijd controleren.
  • Zelfverzekerde taal bij gevoelige onderwerpen — Bij medische, juridische of financiële vragen: AI is geen expert.
  • Inconsistente antwoorden — Dezelfde vraag twee keer stellen kan andere antwoorden geven; dat wijst op onzekerheid.

Wanneer zit AI waarschijnlijk fout?

Wees extra kritisch bij: actuele gebeurtenissen (na de trainingsdatum), zeer specifieke feiten of cijfers, onderwerpen waar weinig data over zijn, en alles wat mensen direct raakt (banen, geld, gezondheid). Bij twijfel: verifieer of schakel een mens in.

Mediawijsheid en desinformatie

Deepfakes en AI-gegenereerde teksten kunnen desinformatie versterken. Check bronnen, vergelijk meerdere bronnen, en wees alert op emotioneel geladen of te simplistische verhalen. Deel niet zomaar content die je niet hebt gecontroleerd.

Samenvatting
  • Onbetrouwbare output: te mooi, geen bronnen, te stellig bij gevoelige onderwerpen, inconsistente antwoorden.
  • Extra kritisch bij actueel nieuws, feiten/cijfers, en beslissingen over mensen.
  • Mediawijsheid: check bronnen, vergelijk, deel niet ongeverifieerde content.
  • Bij twijfel: verifieer of vraag een mens.
  • AI ondersteunt; jouw kritische blik blijft nodig.

Reflectievragen

1. Waarom moet je AI-output controleren?

2. Bij desinformatie of verdachte content: wat is verstandig?

🔮 Toekomst & grenzen van AI

Realistische impact

AI verandert werk en samenleving, maar niet alles. Veel taken worden ondersteund of geautomatiseerd; andere blijven menselijk (oordeel, empathie, verantwoordelijkheid). Blijf leren en meebewegen, maar verwacht geen "alles of niets".

Wat AI niet kan

  • Geen bewustzijn of intentie — AI "wil" niets.
  • Geen garantie op waarheid — AI hallucineert en reproduceert bias.
  • Geen vervanging van menselijke verantwoordelijkheid — jij blijft aanspreekbaar.
  • Menselijke waarden (eerlijkheid, rechtvaardigheid, privacy) blijven menselijke keuzes — AI past ze niet toe zonder mensen.

Menselijke waarden blijven menselijk

Ethische keuzes over wat wel en niet mag met AI worden door mensen gemaakt — in wetgeving (AVG, EU AI Act), in organisaties en in jouw dagelijks gebruik. Jouw kritische blik en verantwoordelijkheid zijn onvervangbaar.

Samenvatting
  • AI verandert veel, maar niet alles; blijf leren en meebewegen.
  • AI heeft geen bewustzijn, geen garantie op waarheid, en vervangt geen menselijke verantwoordelijkheid.
  • Menselijke waarden blijven menselijke keuzes — wetgeving en jij bepalen de grenzen.
  • Jouw kritische blik en verantwoordelijkheid zijn onvervangbaar.
  • Vertrouw op AI waar het kan, controleer waar het moet.

Reflectievragen

1. Kan AI menselijke verantwoordelijkheid vervangen?

2. Wat is de kernboodschap van deze training?

🎓

Goed gedaan!

Certificaat voor

Je hebt de training afgerond. Hier is een samenvatting om te onthouden.

⚙️ Hoe AI werkt — de basis

Elk AI-systeem heeft vier bouwstenen:

  • Instructie — het doel van het systeem
  • Data — de informatie waarvan het leert
  • Algoritme — het "trucje" dat patronen vindt
  • Resultaat — de output die je krijgt

📊 De vier categorieën

Onthoud: niet alle AI is gelijk.

🚫 verboden AI Manipulatie, social scoring, emotieherkenning op werk

⚠️ hoog risico Beslissingen over werk, geld, onderwijs, zorg

💬 beperkt risico Chatbots, gegenereerde content

✅ minimaal risico Schrijfhulp, vertalers, zoekfuncties

🎯 De VENT-principes

  • Vertrouwelijk — Blijft gevoelige informatie beschermd?
  • Eerlijk — Is de data eerlijk en evenwichtig?
  • Nauwkeurig — Legt het systeem de juiste verbanden?
  • Transparant — Kan het systeem uitleggen waarom?

📌 De gouden regels

  • Controleer altijd — AI klinkt zelfverzekerd, ook als het fout zit
  • Deel geen geheimen — behandel AI als een openbaar prikbord
  • Bij beslissingen over mensen: wees extra voorzichtig
  • Wees eerlijk — laat mensen weten als ze met AI te maken hebben
  • Bij twijfel: vraag het — beter vragen dan sorry

🧠 De kernboodschap

AI is een hulpmiddel, geen vervanger.

Het kan je sneller maken, maar niet slimmer. Jouw ervaring, oordeelsvermogen en kennis van de situatie zijn onvervangbaar.

Je bent altijd verantwoordelijk voor wat je doet met AI-output. "De computer zei het" is geen excuus.

🚀 Blijf leren
AI ontwikkelt snel. Wat vandaag niet kan, kan morgen misschien wel. Blijf nieuwsgierig, blijf kritisch, en deel je ervaringen met collega's.
Deze cursus kan sporen van AI bevatten