30 apirilaren 2024 | 3:50

Gaurkotasuna

Azterketak zuzentzeko IA ezartzen dute, 4.000 giza aztertzaile ordezkatuz

Adimen artifiziala heriotza iragartzeko eremuan sartzen da

Jesus Carames

15ko apirilaren 2024a | 2:45etan.

Hezkuntza sektorean adimen artifizialak gero eta eragin handiagoa duela nabarmentzen duen mugimendu batean, Texasko estatuak erabaki du 4,000 giza aztertzaile AI sistemak ordezkatzea estatuko azterketak markatzeko. Aldaketa hau Texasko ikasleen artean hainbat irakasgaietako gaitasun akademikoak neurtzeko ezinbestekoa den STAAR ebaluaziorako ezarriko da.

Orain arte, Texasek urtero behin-behineko 6,000 aztertzaile inguru kontratatzen zituen, batez ere irakasleak, eta hainbat aste eman zituzten azterketa horiek markatzen. Hala ere, 2024. urterako, kopuru hori 2,000 baino gutxiagora murriztuko da, zuzenketa-prozesuan IA sartzearen ondorioz. Murrizketa honek ebaluazio-metodologian aldaketa nabarmena ez ezik, kolpe gogorra ere suposatzen du aldi baterako diru-sarrera horren mende zeuden profesionalentzat.

Neurri horri esker, José Ríos Texasko Hezkuntza Agentziako ikasleen ebaluazio zuzendariaren arabera, estatuak urtero 15 eta 20 milioi dolar artean aurreztuko ditu. Ekonomikoki onuragarria badirudi ere, aurrezki honek eztabaida bizia piztu du giza lanpostuak teknologiarekin ordezkatzeak dakartzan ondorioei buruz eta AIk eskain dezakeen ebaluazioaren kalitateari buruz.

STAAR-ek oinarrizko ezagutzak ez ditu soilik probatzen; Erantzun askeko osagaiak ere biltzen ditu, batez ere idatziz, eta horrek zaildu egiten du AIren ebaluazio objektiboa. Hezkuntza agentziak adierazi du gizakiek dagoeneko ebaluatutako milaka adibiderekin trebatu dela IA, baina prestakuntza honekin ere, kezka handiak daude gizaki batek ondo baloratu ditzakeen erantzun sortzaileak edo ez-konbentzionalak interpretatzeko duen gaitasunari buruz.

Kezka horiei erantzunez, AI-k markatutako azterketen %25 gutxi gorabehera giza aztertzaileek aztertuko dutela ezarri da. Gainera, AI guztiz ulertzen ez dituen erantzunak identifikatzeko programatuta dago, gizakiak ebaluatu ahal izateko.

Teknologia hori ezartzeko erabakia kaltetutako profesionalek ez ezik guraso eta hezitzaileek ere kritikatu dute, behar bezala kontsultatu ez direla argudiatuta. Beldur nabaria da ikasleen erantzun berritzaileak edo bereziak gaizki interpretatu edo bidegabe zigortu ditzaketen algoritmoek, beren izaeragatik, baliteke gizakiaren asmamena baloratzeko gai ez izatea.

Texaseko aldaketa hau munduko beste leku batzuetan etorriko denaren iragarle izan daiteke, non AI sektore ezberdinetan integratzen jarraitzen duen. Egoerak galdera erabakigarriak sortzen ditu eraginkortasun teknologikoaren eta giza enpleguaren arteko orekari buruz, bai eta IAren fidagarritasunari buruz tradizioz giza eginkizunetan, batez ere hezkuntza bezain subjektiboetan.

Albiste gehiago