Zal artificiële intelligentie straks het Vlaamse onderwijs overnemen?

26 mei 2021

De dag van vandaag is AI niet meer weg te denken uit onze maatschappij. We gebruiken het bijna allemaal dagelijks, en vaak zonder het zelf te beseffen. Erger nog: weinig mensen weten effectief wat AI juist inhoudt. En dat is eigenlijk wel een beangstigende realiteit.

In quasi alle maatschappelijke domeinen is AI aan een opmars bezig. En dat is in het onderwijs niet anders. Nu we met i-Learn een online portaal voor digitaal leren op maat bouwen en imec, een onderzoekscentrum voor nano-elektronica en digitale technologie, één van de uitvoerende partners is, wordt i-Learn al snel met AI geassocieerd. Nochtans zal ons portaal zelf voorlopig geen gebruik maken van AI, maar dat neemt niet weg dat sommige educatieve tools die we ontsluiten, wél beroep doen op AI. Het leek dan ook evident om eens een blogpost te wijden aan AI in het onderwijs.

Mieke De Ketelaere

Gelukkig bevinden we ons met i-Learn in de unieke positie dat we veel experts binnen handbereik hebben. Voor AI is zo één van de bekendste experts Mieke De Ketelaere, directeur AI bij imec (IDLab). Zij publiceerde net het boek Mens versus machine: Artificiële intelligentie ontrafeld (Pelckmans, 2020), en leek ons dus de geknipte persoon om ons in mensentaal uit te leggen waarmee we nu eigenlijk te maken hebben. We belden haar even op om meer inzicht te krijgen in AI en het gebruik ervan in het onderwijs.

Dag Mieke, bedankt dat je de tijd wil nemen om even met ons in gesprek te gaan over artificial intelligence.

Met plezier!

Misschien is het niet slecht om meteen van wal te steken met een definitie van AI. Kan je ons kort uitleggen wat AI juist is?

Om het heel kort samen te vatten: AI is een systeem dat in staat is zelfstandig te leren en een beslissing te nemen op basis van wat het geleerd heeft. Deze eenvoudige definitie is grosso modo van toepassing op het type van AI dat momenteel het meest gebruikt wordt.

Jij noemt jezelf AI-vertaler. Wat houdt dat juist in?

Het is zo dat AI oorspronkelijk een academische discipline was. Sinds de komst van grote Amerikaanse spelers in de jaren ’90 (Google, Amazon, enz.) en later ook de Chinese spelers (vb. Alibaba) heeft AI erg snel de weg gevonden naar de buitenwereld. Eigenlijk is de maatschappij daar een beetje in snelheid gepakt, aangezien de snelle implementatie gezorgd heeft voor problemen op het vlak van begrip en omkadering van AI.

Kijk bijvoorbeeld maar naar andere disciplines, zoals bijvoorbeeld de geneeskunde. In dat domein heeft men eeuwenlang de tijd gehad vooraleer de wetenschap de stap zette naar bedrijfsoplossingen. Dat heeft ervoor gezorgd dat iedereen ter wereld nu dezelfde taal spreekt wanneer het over geneeskunde gaat: een menselijk bot kent één specifieke, wereldwijde benaming. Bij AI is alles extreem snel gegaan, wat als gevolg heeft dat je over AI kan spreken en toch iets helemaal anders kan bedoelen dan iemand anders die over AI praat.

Door die snelheid in de maatschappijbrede toepassing van AI is er helaas een vertaalslag verloren gegaan; een vertaalslag tussen de ingenieurs die de systemen maken en de bedrijfsleiders die AI gaan gebruiken in een specifieke context. De personen die AI-systemen inzetten, vatten meestal niet ten volle wat AI is en wat het kan of niet kan. Het is zo dat huidige datagedreven AI-systemen goed kunnen omgaan met onzekerheden. En dat is ideaal, aangezien wij als mens niet zo graag met onzekerheid geconfronteerd worden. Echter, deze AI-systemen hebben in vergelijking met regelgebaseerde systemen bepaalde foutenmarges, en daar zijn de gebruikers van de systemen zich vaak onvoldoende van bewust. Zo zullen bedrijven zich bijvoorbeeld baseren op de voorspellingen van hun AI-systeem zonder rekening te houden met die mogelijke foutenmarge. En dat zorgt natuurlijk voor spanningen wanneer het systeem een fout maakt. We komen dan al snel in het thema van aansprakelijkheid. Want bij wie ligt de verantwoordelijkheid wanneer een AI-systeem een foute beslissing maakt? Overheden of bedrijfsleiders zullen al snel met de vinger wijzen naar de ingenieur die het systeem gebouwd heeft, maar dat klopt niet. Die ingenieur heeft het systeem gebouwd zonder daarbij te weten in welke contexten het gebruikt zal worden en wordt zelden opnieuw betrokken wanneer contexten veranderen. Er is daarom een hoge nood aan AI-vertalers die AI vanuit verschillende disciplines kunnen bekijken en de vinger kunnen leggen op knelpunten.

Zijn er verschillende soorten van AI?

De AI die nu het vaakst als AI benoemd wordt is degene waarin we refereren naar het connectionisme, één van de klassen binnen het domein van AI. Het connectionisme gaat ervan uit dat intelligentie gemaakt is door het menselijk brein. We zijn gaan kijken hoe het menselijk brein is opgedeeld in lagen van neuronen en hoe we door het verwerken van signalen op een bepaald moment tot een beslissing komen. En dat zijn we gaan repliceren in een digitaal formaat. Nochtans zijn er op aarde ook organismen zonder brein die ook tekenen van intelligentie vertonen zoals bijvoorbeeld regenwormen of planten. Het Darwinisme kijkt op een andere manier naar intelligentie en vindt dat er rekening gehouden moet worden met evolutie. De symbolisten baseren zich dan weer voornamelijk op logica en regels. Zulke AI-systemen werken op basis van deductie en het antwoord van zo’n systeem is dan ook altijd waar en verifieerbaar. Deze symbolistische systemen kunnen echter geen beslissingen nemen in situaties die hen onbekend zijn. Een andere categorie, de Bayesianen, benadert intelligentie vanuit de Bayesiaanse statistiek. Aanhangers van deze school bekijken data uit het verleden en verbinden dit met voorspellingen voor de toekomst.  Tot slot zijn er ook de analogizers die ervan uitgaan dat we kennis vergaren door analogieën te analyseren. Een aanbevelingssysteem is hier een goed voorbeeld van: je koopgedrag wordt voorspeld op basis van het koopgedrag van gelijkaardige personen.

De huidige trend is om de verschillende categorieën meer en meer met elkaar te verbinden. Connectionisme is bijvoorbeeld heel goed in leren, maar nog niet goed in redeneren. Dus daarvoor zal er dan naar de andere categorieën gekeken worden om die kennis ook in te bouwen in onze autonome systemen.

Hoe is AI eigenlijk tot stand gekomen?

De term artificial intelligence werd in 1956 voor het eerst gebruikt op een conferentie. Men wilde nagaan of intelligentie gedigitaliseerd kon worden. Zo is dan AI ontstaan, wat op dat moment voornamelijk uit regelgebaseerde systemen bestond (vb. commando’s à la “als de zon op het raam schijnt, doe dan de zonnewering dicht”). Die eerste AI-systemen vergden ook niet zoveel rekenkracht. De bedoeling was om menselijke intelligentie na te bootsen zodat deze systemen gevaarlijke, saaie of vuile taken konden overnemen van de mens (dangerous, dull en dirty). Dit lijstje van drie D’s werd later aangevuld met de droom om AI-systemen moeilijke taken te laten uitvoeren (difficult). De uitdaging is niet min, want menselijke intelligentie bevat enorm veel aspecten. En gewoon al het definiëren van intelligentie is verre van evident.

Dus we willen met AI intelligentie nabootsen, maar hoe betrouwbaar is dat? AI komt regelmatig negatief in het nieuws (bijv. in verband met racial bias in facial recognition-systemen). Als we dan kijken naar het doelpubliek van i-Learn, leerkrachten, dan leeft er daar ook angst dat een computer ooit zal beslissen of een leerling naar het volgende leerjaar mag, louter en alleen door te kijken naar data. Is die angst terecht?

Dat is een zeer terechte angst. In het boek Weapons of Math Destruction (Cathy O’Neil) vind je veel voorbeelden van dit soort situaties. Persoonlijk denk ik dat het niet de juiste aanpak is om AI in te zetten voor autonome beslissingen die een impact kunnen hebben op iemands leven (vb. job, gevangenisstraf, studies). Je kan AI wél gebruiken om inzichten te verwerven en grote hoeveelheden data te verwerken, maar de finale beslissing zal best nog steeds door een mens genomen worden.

De dag van vandaag laten we AI-systemen te snel een autonome actie of een beslissing (onder)nemen om bepaalde processen te versnellen of manuele kosten te verminderen. Je kan deze AI-systemen echter beter gebruiken om ongekende en nieuwe inzichten te verwerven aangezien ze de kracht hebben om enorme hoeveelheden data te verwerken. Volgens mij gebruiken we ze daarentegen beter niet om autonome beslissingen te maken omdat onze wereld vaak complex is, trainingsdata menselijke vooroordelen bevatten en niet iedereen in de standaardhokjes past.

AI kan echter wel helpen om de scherpe kantjes af te vijlen van sommige menselijke beslissingen. Elke mens heeft namelijk bepaalde vooroordelen, en we zijn ons daarvan niet altijd bewust. Door een AI-systeem te laten voeden door verschillende mensen met elk hun eigen vooroordelen, zal de vooringenomenheid van het systeem afgevlakt kunnen worden waardoor een AI-systeem een objectievere, meer neutrale beslissing kan nemen dan een mens. Maar volledig neutraal zal AI nooit zijn, juist omdat AI-systemen data gevoed krijgen door mensen. Als we het probleem van vooroordelen willen aanpakken, moeten we starten bij de mens, niet bij het systeem. Interessant is te weten dat bepaalde bedrijven net AI inzetten om interne vooroordelen duidelijker aan het licht te brengen en actief aan te pakken.

Welke mogelijkheden zie jij voor de toepassing van AI in het onderwijs? Welke dull, dirty, dangerous of difficult taken zou AI voor leerkrachten kunnen uitvoeren?

Het onderwijs zet nu in op de gemiddelde leerling. AI zou kunnen helpen bij de saaie momenten in de klas door de sterkere leerlingen wat uit te dagen en de zwakkere leerlingen extra oefeningen aan te bieden. Zo wordt er niet meer lesgegeven op het niveau van de grote bulk van de Gausscurve, maar kunnen ook de uitschieters langs beide kanten op een gepersonaliseerde manier bediend worden. AI bots (i.e. computerprogramma’s die autonoom specifieke taken kunnen uitvoeren) kunnen bijvoorbeeld door nieuwe digitale datastromen (zoals online klikgedrag) bepalen wat er in een leerling zijn hoofd omgaat, waardoor je zou kunnen afleiden of hij of zij gestresseerd of afgeleid is.  AI kan dus ook op affectief of metacognitief niveau een rol spelen en beperkt zich niet noodzakelijk tot adaptieve tools die automatisch het niveau van een oefening aanpassen. Ik zie AI binnen het onderwijs als een adviserend orgaan zowel op inhoudelijk niveau (Hoe is het gesteld met de leerstofbeheersing van de leerling?) als op een emotioneel niveau (meten van stressniveau of motivatie). Zeker nu tijdens de coronacrisis kan AI bijvoorbeeld een belangrijke rol spelen om de school drop outs proactief op te sporen.

Door het inzetten op AI kan het onderwijs nog beter inspelen op de behoeften van elke leerling. Voor i-Learn is dat natuurlijk geweldig: wij willen net digitaal leren op maat van elk kind mogelijk maken zodat de leerkracht niet meer op het niveau van de gemiddelde fictieve leerling moet lesgeven. Zelflerende AI is dan ook erg beloftevol. Is dit iets wat we op korte termijn in het onderwijs gaan kunnen terugvinden of zijn we hier te idealistisch?

Sommige landen zijn hiermee al bezig, vooral de Scandinavische landen. Het is dus zeker mogelijk op korte termijn. Maar hierbij wil ik wel een kanttekening maken. Ik ben zelf voorstander van het the human in the loop-principe. Zelflerend is goed, maar we mogen niet vergeten dat zelflerende systemen gemakkelijk te misleiden zijn. Eens je doorhebt hoe deze systemen werken, dan kan je ze manipuleren zodat ze het gedrag stellen dat jij wenselijk vindt. Slimme leerlingen zullen dus al snel doorhebben wat ze moeten doen om gemakkelijkere oefeningen te krijgen. Het is dus belangrijk dat het menselijk aspect aanwezig blijft en dat iedereen zijn verantwoordelijkheid neemt. Het AI-systeem kan effectief helpen, maar je moet als leerkracht en school je verantwoordelijkheid nemen om niet 100% terug te vallen op de resultaten van het AI-systeem.

Leerkrachten moeten dus niet bang zijn dat ze in de toekomst vervangen zullen worden door AI-systemen?

Nee, helemaal niet. Dat menselijke aspect blijft essentieel. AI haalt trouwens veel inspiratie uit het onderwijs. Wat bijvoorbeeld van belang is, is incremental learning: we gaan van onze AI-systemen niet de bolleboos van de klas maken, maar we gaan hen een klein stukje kennis aanleren, kijken hoe ze daarop reageren om dan vervolgens hierop verder te bouwen en nieuwe stukjes kennis aan te reiken. Dat is exact wat er in een klascontext gebeurt: de leerkracht legt de theorie uit, laat de leerlingen dit inoefenen met enkele oefeningen en zal uiteindelijk testen hoe goed de leerlingen de leerstof beheersen. De leerkracht zal dan bijsturen waar nodig. Na de huidige coronacrisis zou AI op dat vlak een grote rol kunnen spelen om te bepalen welke leerstof voldoende beheerst wordt en voor welke aspecten toch leerachterstand ingehaald dient te worden.

We zien dat EdTech aan een opmars bezig is in Vlaanderen. Het grote publiek heeft dat ook ontdekt ‘dankzij’ de lockdown in maart 2020, toen scholen massaal aan de EdTech gingen. Maar hoever staan we al op dit vlak in Vlaanderen? Lopen wij voor of achter op de rest van de wereld?

China staat bijvoorbeeld al extreem ver, in die zin zelfs dat leerlingen les krijgen van robots. Chinese kinderen worden groot met robots in de klas, waardoor dit voor hen perfect normaal is. Dat is wel al heel verregaand, vind ik. België is dus niet meteen een voorloper.

Ik merk zelf dat de leerlingen van nu soms nog met dezelfde frustraties geconfronteerd worden als ikzelf tijdens mijn jeugd. In België wordt er alvast in de scholen van mijn kinderen nog heel regelgebaseerd lesgegeven. Leerlingen krijgen eerst de theorie en moeten deze dan op een bijna mechanische wijze toepassen, wat soms zelfs voor onnatuurlijk aanvoelende situaties zorgt. Ik geef even een voorbeeld: in de les NT2 leerden mijn Nederlandstalige kinderen hier in Wallonië dat de juiste vraagstelling is “hoe lang ben jij?”. Dat komt heel artificieel over, want in de praktijk zeggen we “hoe groot ben jij?”. In de les N2T leren ze echter dat “groot” gebruikt wordt voor een oppervlakte. Natuurlijk versta ik deze taalregel als ik erover nadenk, maar ik ben ervan overtuigd dat je een vreemde taal beter door ervaring kan leren dan  door het aanleren van regels en woorden. De kloof tussen theorie en praktijk is hierdoor te groot.

De aanpak, “leren door ervaring”, zit nog onvoldoende vervat in de klaspraktijk. AI kan daarin wel een belangrijke rol spelen, door leerstof aan te brengen via gamification. Dankzij gamification kan je leerlingen ook warmer maken voor bepaalde leerstof. Er is namelijk geen enkel kind dat niet graag speelt. Dus waarom niet dat spelelement combineren met kennisvergaring? Andere landen passen dit wel meer toe, dus België loopt op dat vlak toch wel wat achter. Door ervaringsgericht te leren onthoud je dingen overigens ook veel beter, omdat de leerstof gekoppeld wordt aan een realistische situatie die je bewust hebt meegemaakt. En leerlingen begrijpen er bovendien beter door waarom ze bepaalde dingen moeten leren en beheersen. Er bestaan trouwens in België al innovatieve scholen die afgestapt zijn van de klassieke onderwijsaanpak en volledig focussen op ervaringsgericht leren. LAB is daar een goed voorbeeld van. We zouden moeten proberen af te stappen van ons silodenken, en meer vakoverschrijdend en projectmatig te werk gaan.

Hebben we in het onderwijs een vak AI nodig, denk je?

Ik denk niet dat het veel zin heeft om een apart vak over AI in het leven te roepen. AI is namelijk geen standalone iets, maar zit vervlochten in zoveel disciplines dat eigenlijk elk vak aandacht zou moeten besteden aan zelflerende systemen die in dat domein gebruikt worden (vb. esthetica, economie,…).

Ik denk dat het bovendien heel belangrijk is om te benadrukken dat AI de komende jaren niet zal kunnen redeneren of strategieën uitdenken. Het is dan ook belangrijk dat ons onderwijs inzet op die vaardigheden die ons net onderscheiden van AI-systemen, zoals strategisch denken, empathie, sociale skills, tussen de lijnen lezen en interpersoonlijke connecties. Leerlingen zouden op die manier dat strategisch denken meer onder de knie kunnen krijgen, waarbij ze de inzichten van AI-systemen dan efficiënt kunnen inzetten.

Er wordt nu heel veel op STEM ingezet, waardoor kunstvakken moet wijken, maar eigenlijk is dat niet zo logisch aangezien AI juist die puur wetenschappelijke zaken gemakkelijk gaat kunnen overnemen. Wat AI niet kan, betreft juist die meer menselijke aspecten. En net die menselijke insteek is van essentieel belang bij het inzetten van AI. Zoals ik eerder ook al zei, hebben we altijd een mens nodig die oordeelt over de resultaten die een AI-systeem teruggeeft. Puur technisch gezien is een ingenieur blij wanneer zijn AI-systeem werkt en accuraat is. Maar gebruik dat AI-systeem in een bepaalde context (vb. facial recognition), dan kan het toch mensenlevens verwoesten omdat er geen menselijke factor meer aanwezig is die de resultaten dubbelcheckt. Dit heeft eigenlijk verregaande gevolgen, die momenteel nog onvoldoende meegenomen worden bij de ontwikkeling van AI-systemen. Voor de by design-fase (i.e. ontwerpfase) van AI heb je dus niet alleen ingenieurs nodig, maar ook sociologen, juristen, enz.

Technologie en maatschappij zijn onlosmakelijk met elkaar verbonden en we moeten allemaal samen de verantwoordelijkheid nemen om verantwoorde AI-systemen te bouwen. Een multidisciplinaire aanpak van AI dringt zich dus op. AI-systemen werken in complexe omgevingen en het is dus de verantwoordelijkheid van elke stakeholder om – binnen multidisciplinaire teams – na te denken wat er met die technologie gebeurt. Het is dan ook belangrijk dat onze kinderen hiervoor de juiste scholing krijgen.

Kan je aan onze lezers enkele tips geven om AI een plaatsje te geven in hun lessen?

Er bestaan al heel wat interessante initiatieven waarvan leerkrachten gebruik kunnen maken. De opbrengst van mijn boek gaat bijvoorbeeld naar Dwengo, een organisatie die heel wat materiaal en workshops creëert over computerwetenschappen en robotica. En je hebt natuurlijk ook de EDUbox AI, een kant-en-klaar lespakket bedoeld voor het secundair onderwijs.

Het gebrek aan aandacht voor AI in het onderwijs is overigens niet te wijten aan het ontbreken van lesmateriaal. Er is eerder sprake van een complexity bias waardoor mensen denken dat AI te moeilijk is om uit te leggen. Bedrijven zouden daarin eigenlijk ook hun steentje moeten bijdragen, via corporate social responsibility. Ze zouden dit kunnen doen door bijvoorbeeld werknemers af en toe les te laten geven in scholen, over topics zoals privacy en data. Zo leer je als werknemer met welke vragen kinderen worstelen en hoe zij naar technologie kijken. Bovendien zijn die leerlingen je eeuwig dankbaar en zijn ze ook nog eens heel snel mee met technologie. Het is belangrijk dat leerlingen bewust gemaakt worden van de impact van technologie op hun leven. Sommige jongeren beseffen pas te laat welk digitaal DNA ze tijdens hun jeugd en studententijd achterlaten. Foto’s die ze misschien liever niet meer online zien staan wanneer ze later op zoek gaan naar een job…

Er is dus nog heel wat werk om ervoor te zorgen dat iedereen beseft wat de impact is van AI, en we kunnen daar best zo vroeg mogelijk mee beginnen.

Inderdaad.

Los van die noodzakelijke bewustmaking zijn er ethisch gezien toch ook wel wat vragen te stellen bij het gebruik van AI, nietwaar? Als we bijvoorbeeld kijken naar AI in het onderwijs, dan werpen er zich toch bepaalde ethische vragen op, zoals: wie heeft het laatste woord: de leerkracht of de tool? En wat met al die data die verzameld worden over onze kinderen? Wordt er over deze ethische aspecten van AI al nagedacht en wordt hiervoor een wettelijk kader voorzien?

Dat ethische aspect is inderdaad erg actueel. Zo heeft Europa bijvoorbeeld in 2019 enkele ethische AI-regels gedefinieerd (zie hier), richtlijnen die recent in een regulatie werden gegoten (Europe fit for the Digital Age: Artificial Intelligence (europa.eu)) . Sommige mensen liggen er niet van wakker dat Jan en alleman hun persoonlijke gegevens kan gebruiken. Maar elk individu zou wel het recht moeten hebben om voor zichzelf te beslissen wat hij of zij wil vrijgeven. Iedereen is er zich stilaan van bewust aan het worden dat we niet meer verder kunnen zoals we nu doen, namelijk onze data zonder nadenken doorsturen naar elk bedrijf dat er om vraagt. Datakluizen zouden daarvoor een mogelijke oplossing kunnen zijn (vb. Solid). Zowel in B2C- als in B2B-context zal dit heel relevant worden.

Belangrijk is wel dat ook in deze ethische en wettelijke kaders de vertaalslag niet verloren gaat, en dat is helaas toch nog vaak het geval. Het volstaat niet om juristen regels te laten opstellen. We moeten grenzen stellen aan AI, maar die grenzen moeten mee uitgedacht worden door ethici, economen, sociologen en ingenieurs, die elk vanuit hun eigen domein de vinger kunnen leggen op mogelijk problematische situaties. Dit is gemakkelijker gezegd dan gedaan in de snel veranderende technologische wereld waarin AI zich als een saus in alle processen in verschillende sectoren begint te mengen.

Er is dus nog wat werk aan de winkel om de juiste richting voor AI te bepalen. Bedankt voor dit inspirerende en leerrijke interview, Mieke!