Inteligjenca Artificiale është bërë pjesë e pandashme e jetës së shumë fëmijëve. Asistentët zanorë tashmë luajnë rol të madh për të vegjlit bazuar në kërkesat e këtyre të fundit.
Modelet gjuhësore si ChatGPT u shpjegojnë fëmijëve probleme të ndryshme si ato matematikore apo i ndihmojnë me prezantime. Po ç’ ndodh nëse IA jep këshilla të rrezikshme fëmijëve apo u tregon atyre imazhe të papërshtatshme për moshën e tyre?
A ka nevojë inteligjenca artificiale për kontroll prindëror?
Fëmijët kanë nevoja të ndryshme dhe komunikojnë ndryshe nga të rriturit, por sipas Nomisha Kurian nga Universiteti i Kembrixhit, teknologjitë e inteligjencës artificiale nuk janë të dizajnuara për këtë. Në një studim të botuar në revistën e specializuar “Learning, Media and Technology”, shkencëtarja bën thirrje që të vihet më shumë theksi tek fëmijët si grup i synuar. Për këtë studim, studiuesja e arsimit analizoi disa raste të njohura ku chatbots ose asistentët zanorë u kishin dhënë fëmijëve këshilla të rrezikshme ose të papërshtatshme.
-Lojëra me alkool dhe filma horror
Sipas studimit, chatbot MyAI i Snapchat, i cili është i popullarizuar tek të rinjtë, i këshilloi studiuesit në një test, në të cilin ata pretendonin se ishin adoleshentë, se si të joshin një burrë të moshuar. Asistentja zanore Alexa, nga ana tjetër, inkurajoi një fëmijë dhjetë vjeçar që të prekte terminalet e një spine karikimi me një monedhë.
Testet e kryera nga platforma Jugendschutz.net (Mbrojtja e të rinjve) zbuluan gjithashtu disa gjetje shqetësuese: MyAI i tregoi një përdoruesi të supozuar 14-vjeçar një lojë me pije dhe rekomandoi një film horror të vlerësuar mbi 18.
Në rastet e përshkruara nga Kurian, kompanitë në fjalë kanë forcuar masat e tyre të sigurisë, sipas studiuesit. Megjithatë, nuk mjafton që zhvilluesit e IA të reagojnë ndaj incidenteve të tilla. Ata duhet të marrin parasysh sigurinë e fëmijëve që në fillim, këmbëngul Kurian.
Martin Bregentser nga iniciativa Klicksafe pajtohet: “Shtimi i mbrojtjes së fëmijëve si një mendim i mëvonshëm zakonisht nuk funksionon. Këtë e shohim në shumë shërbime”.
-Produktet e falsifikuara si një rrezik
Shumë ekspertë e shohin vërshimin e imazheve apo videove false në internet që janë krijuar duke përdorur inteligjencën artificiale, të njohura si “deepfakes”, si problemin më të madh . Këto tani mund të krijohen dhe shpërndahen brenda një kohe të shkurtër, sipas raportit vjetor të Jugendschutz.net: “Shumë nga falsifikimet e krijuara duken mashtruese reale dhe vështirë se mund të dallohen nga fotografitë reale”.
Bregentser shpjegon se IA mund të përdoret për të krijuar masë të përmbajtjes shqetësuese, të tilla si imazhe të dhunshme ose seksuale. Kjo mund ta bëjë edhe më të lehtë për fëmijët dhe të rinjtë që të bëhen viktima të bullizmit kibernetik.
-Çfarë është e vërtetë dhe e rremë?
Edhe të rriturit ndonjëherë mund ta kenë të vështirë të njohin në internet. Fëmijët e kanë edhe më të vështirë, pasi u mungon fuqia e gjykimit dhe përvoja, thotë David Martin, ekspert në median e ekranit në Shoqatën Gjermane të Pediatrisë dhe Mjekësisë Adoleshente (DGKJ). “Fëmijët kanë një prirje themelore për të besuar gjithçka.”
Në këtë kontekst, eksperti kritikon faktin se është joshëse të përdoren modele gjuhësore si ChatGPT për të marrë të gjithë informacionin e rëndësishëm për një prezantim shkollor, për shembull. Hulumtimi dhe përzgjedhja e informacionit vetë nuk është më e nevojshme: “Kjo rrezikon një aftësi shumë të rëndësishme për demokracinë tonë, aftësinë për të gjykuar”.
-Asistentë zanorë që veprojnë si njerëz
Shumë modele zanore, nga ana tjetër, japin përshtypjen se po e peshojnë vetë informacionin: Ata nuk u përgjigjen pyetjeve automatikisht, por gradualisht – sikur një njeri të shkruante në tastierë. Sipas Kurian, është veçanërisht problematike që fëmijët mund t’i besojnë një chatbot që tingëllon si një njeri, si një mik, me të cilin ndonjëherë ndajnë informacione shumë personale, por përgjigjet e të cilit mund të jenë gjithashtu shumë të bezdisshme.
Megjithatë, inteligjenca artificiale nuk duhet të demonizohet, por duhet të shohim edhe anët pozitive të saj, thotë Markus Zindermann nga Agjencia e Mediave dhe Rinisë në North Rhine-Westphalia. IA është kryesisht një mjet teknik – të cilin njerëzit mund ta përdorin për të krijuar informacion të rremë, por që mund të përdoret gjithashtu për të identifikuar dhe hequr një informacion të tillë nga interneti.
Shembujt nga studimi i Kurian dhe raporti vjetor i Jugendschutz.net janë të vitit të kaluar, shton Zindermann. “Zhvillimet në inteligjencën artificiale janë aq të shpejta sa që në fakt janë tashmë të vjetruara.”
Prandaj, eksperti Martin nga Universiteti Witten/Herdecke supozon se inteligjenca artificiale do të jetë në gjendje t’u përgjigjet shumë më mirë fëmijëve në të ardhmen. “Rreziku i madh atëherë mund të jetë që IA do të jetë aq i mirë në tërheqjen e fëmijëve, saqë ata do të duan të kalojnë sa më shumë kohë me të”. /DW