Holding AI accountable

3 belangrijke vragen over Holding AI accountable

Leg uit: AI als black box?

Niet uitlegbaar

AI leidt aan een informatiedeficiet en dat komt door drie concepten. Vul aan, adhv de tips:

Zwarte doos in een vliegtuigEigendom?3. Ambtenaren zijn dom.

  1. Black-boxalgoritmen
  2. Proprietarymodellen
  3. Complexiteit: hoe kunnen we nog nagaan of AI logisch werkt?

Veel AI kan niet uitgelegd worden of uitleg is slechts een poging tot "approximation" van de uitlegbaarheid.

Wat zegt Busuioc over 'decision trees' bij hoog-risicobeslissingen.

  • Deze zijn meer interpretabel dan andere black-boxmodellen en moeten dus gebruikt worden voor hoog-risicotoepassingen.

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo