AI beter begrijpen - ICTberichten.nl

AI beter begrijpen

AI beter begrijpen
Artificial intelligence baseert resultaten op algoritmen. Die worden gezien als de black box van AI toepassingen. De behoefte om deze black box te openen groeit. Huidige tools maken namelijk wel duidelijk hoe een algoritme werkt, maar niet wat de uitgangspunten waren. Terwijl dat wel belangrijk is om te bepalen welke waarde gehecht moet worden aan de uitkomsten van AI.

Nu kunstmatige intelligentie steeds belangrijker wordt, willen mensen precies weten hoe een algoritme werkt. Soms is dat zelfs noodzakelijk. Denk aan AI voor medische adviezen, juridische procedures en bij financiële beslissingen. Voorbeelden van technieken voor ‘explainable AI’ zijn xAI Workbench, Arize AI en EthicalML/ai. Deze technieken worden echter misbruikt als aanjager voor de verkoop van AI platforms. Ze leveren allerlei complexe technische data, maar maken niet duidelijk hoe een AI toepassing echt functioneert.

Om algoritmen begrijpelijk maken moet ook duidelijk zijn waarom een model wordt ingezet voor een bepaalde taak, met welke data het is gevoed en of er problemen waren bij de ontwikkeling. Er zijn nog geen technieken en tools die hierover voldoende gedetailleerde gegevens verschaffen. Bovendien is het data management nu nog niet toegerust op het genereren van die informatie.

Lees verder

Meer over AI – sectie op ICTinformatiecentrum.nl
Volledig artikel – Lees hier de complete tekst
Data box – Als u aan de slag wilt met data analytics, business intelligence of AI

Vaker dit soort berichten lezen? Meld u aan voor de ICT nieuwsbrief