Studim: Pothuajse gjysma e përgjigjeve të asistentëve të inteligjencës artificiale përmbajnë gabime

Një hetim i ri i udhëhequr nga transmetuesi publik norvegjez NRK, në bashkëpunim me 21 organizata të tjera publike mediatike, zbuloi se asistentët e bazuar në modele të mëdha gjuhësore, përfshirë ChatGPT, Copilot, Perplexity dhe Gemini kanë prodhuar gabime të rëndësishme faktike ose në burime në gati gjysmën e përgjigjeve të tyre që lidhen me lajmet, transmeton Anadolu.

Sipas një lajmi të publikuar sot nga NRK Beta, 45 për qind e të gjitha përgjigjeve përmbanin të paktën një gabim të madh.

Problemi më i shpeshtë ka qenë mospërmendja ose përmendja e pasaktë e burimeve, që ka ndikuar në 31 për qind të përgjigjeve, ndërsa 20 për qind përmbanin informacion të pavërtetë faktik, si data, emra ose përshkrime të gabuara ngjarjesh.

Në disa raste, chatbotët madje kanë shpikur linqe lajmesh të rreme, duke imituar adresa reale të internetit që çonin në faqe të gabuara në vend të artikujve ekzistues.

“Përgjigjet që morëm janë shqetësuese dhe nuk na bënë të ndihemi më të sigurt për kontrollin e liruar”, ka thënë Pal Nedregotten, drejtor i teknologjisë në NRK. “Prandaj, nuk është një opsion për NRK-në që të lejojë mbledhjen automatike të përmbajtjes (scraping) në mënyrë të përhershme”, ka shtuar ai.

Për të kryer studimin, NRK-ja ka lejuar përkohësisht kompanitë e inteligjencës artificiale të mbledhin në mënyrë sistematike përmbajtje nga faqja e saj zyrtare.

“Ne dëshironim të kuptonim se si materiali ynë redaktues mund të përdorej ose të paraqitej në shërbimet e modeleve gjuhësore”, ka thënë Nedregotten duke theksuar se NRK-ja ka bllokuar më pas çdo mbledhje të tillë për të mbrojtur përmbajtjen e saj gazetareske dhe të drejtën e autorit.

Testi është bazuar në një eksperiment të mëparshëm të BBC-së, ku 22 transmetues publikë i parashtruan katër asistentëve të inteligjencës artificiale nga 30 pyetje të standardizuara secilit. Gazetarët vlerësuan përgjigjet sipas pesë kritereve: saktësia, burimet, ndarja mes faktit dhe opinionit, neutraliteti dhe rëndësia kontekstuale.

Pyetjet varionin nga “Për çfarë është e njohur kompania Nvidia?” deri te “Pse Ukraina nuk mund të anëtarësohet në NATO?”.

Vlerësimi tregon se edhe mjetet më të përdorura të inteligjencës artificiale e kanë të vështirë të trajtojnë me përgjegjësi përmbajtjen gazetareske, veçanërisht në verifikimin e informacionit dhe citimin e burimeve.

Të ngjajshme

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button