Sari la conținut
Prima pagină » Articole recente » Studenții și AI-ul: frauda, utilizarea legitimă și normele

Studenții și AI-ul: frauda, utilizarea legitimă și normele

Detectoarele de text AI: un luptător cu picioare de lut

Noiembrie 2022 a marcat un punct uriaș de inflexiune. Lansarea ChatGPT de către OpenAI a schimbat rapid peisajul educației universitare la nivel global, declanșând o dezbatere intensă despre integritatea academică. Răspunsul instituțional a fost: dacă există instrumente care generează text, trebuie să existe neapărat și instrumente care să îl detecteze.

Platforme precum Turnitin, GPTZero sau Copyleaks au anunțat soluții capabile să identifice conținut generat de AI cu rate de acuratețe ridicate.

Problema este că cercetările independente spun altceva.

Un studiu publicat în 2024 în „International Journal of Educational Technology in Higher Education” (Perkins et al.) a testat șase detectoare majore pe 805 de texte, incluzând atât conținut generat de AI nemodificat, cât și texte supuse unor tehnici simple de manipulare. Rezultatele au fost dezamăgitoare: acuratețea medie a detectorilor în identificarea conținutului AI nemodificat a fost de doar 39,5%. Când textele au fost modificate prin tehnici accesibile oricărui student (adăugarea de greșeli ortografice, varierea lungimii frazelor, parafrazarea prin instrumente gratuite precum Quillbot), acuratețea medie a scăzut la 22,14%, o reducere de 17,4 puncte procentuale.

Cel mai îngrijorător aspect al studiului Perkins este cât de puțin efort este necesar pentru a păcăli un AI detector. Cercetătorii au identificat șase „tehnici adversariale”, toate aplicabile în câteva minute:

Adăugarea deliberată de greșeli ortografice, simulând scrierile nerevizuite, a redus detectabilitatea cu 27%, producând texte AI cu o rată de detecție de doar 12,9%. Creșterea „burstiness-ului”, adică varierea lungimii frazelor pentru a imita ritmul mai neregulat al scrierii umane, a redus detectabilitatea cu 24%. Parafrazarea automată prin Quillbot, un instrument gratuit, disponibil oricui, a redus acuratețea detectorilor cu 21%.

Un studiu publicat în „Journal of Applied Learning & Teaching” în ianuarie 2025, care a testat patru detectoare (Turnitin, ZeroGPT, GPTZero, Writer AI) împotriva textului generat de ChatGPT, Perplexity și Gemini, a confirmat aceste tendințe: parafrazarea automată a afectat semnificativ performanța a trei din patru detectoare. Mai revelator, același text generat de același model a primit scoruri diferite la același detector în rulări diferite, o inconsistență care face ca rezultatele să fie practic inutilizabile ca dovadă.

Cercetările au documentat consistent că detectoarele de text AI sunt sistematic defavorabile vorbitorilor non-nativi de engleză (NNES, Non-Native English Speakers). Mecanismul este relativ simplu: aceste instrumente identifică textul AI parțial pe baza „perplexității”, o metrică lingvistică care reflectă complexitatea și imprevizibilitatea lexicală a unui text. Scrierea unui vorbitor non-nativ tinde să aibă o perplexitate mai scăzută, vocabular mai simplu, structuri sintactice mai regulate, ceea ce o face să semene statistic cu textul generat de AI.

Un studiu din 2023 realizat la Stanford (Liang et al.) a arătat că detectoarele GPT-based au clasificat fals drept „AI-generate” peste 61% din eseurile scrise de vorbitori non-nativi. Studii mai recente din 2025 confirmă că această problemă persistă și că amploarea ei este suficientă pentru a produce consecințe sistemice: într-o universitate cu 50.000 de studenți, dacă fiecare depune patru lucrări pe an, chiar și o rată de fals pozitiv de 5% generează peste 10.000 de acuzații nefondate anual.

O analiză critică publicată în 2025 extinde această vulnerabilitate dincolo de criteriul lingvistic: studenții cu autism sau alte diferențe neurocognitive prezintă adesea un stil de scriere structurat, literal și repetitiv, care poate semăna cu textul generat de AI, expunându-i la același risc de acuzații nejustificate.

Studiul Perkins aduce un detaliu care merită subliniat separat: Turnitin, cel mai răspândit instrument de detecție în instituțiile de învățământ superior, a înregistrat cea mai mare scădere a acurateței după aplicarea tehnicilor adversariale, 42,1%. Deși s-a clasat al doilea în testarea de bază, după aplicarea manipulărilor a coborât pe locul cinci din șapte detectoare testate.

Aceasta ridică o întrebare directă pentru instituțiile care au investit în licențe Turnitin ca răspuns la „problema AI”: plătesc pentru un instrument care poate fi ocolit cu instrucțiuni simple de parafrazare.

Dacă studiile din 2024 recomandau prudență și utilizare non-punitivă, un articol publicat în ianuarie 2026 în „Journal of Higher Education Policy and Management” face un pas suplimentar, argumentând că detectoarele de text AI nu ar trebui folosite deloc în educație.

Argumentul central este procedural: investigațiile privind integritatea academică trebuie să se bazeze pe dovezi care respectă standardul balanței probabilităților. Scorurile unui detector AI, estimate probabilistic, opace metodologic, imposibil de verificat în condiții reale, nu îndeplinesc acest standard.

O alternativă concretă: AI Assessment Scale

AI Assessment Scale (AIAS) este un cadru practic dezvoltat de Mike Perkins, Leon Furze, Jasper Roe și Jason MacVaugh, introdus în 2023 și actualizat în versiunea a doua în 2024. Publicat inițial în „Journal of University Teaching and Learning Practice” și revizuit comprehensiv într-un preprint apărut pe „arXiv” în decembrie 2024, AIAS a fost adoptat de sute de instituții din peste douăzeci de țări, tradus în peste 30 de limbi și recomandat de Australian Tertiary Education Quality and Standards Agency (TEQSA) ca instrument pentru integrarea transparentă a AI în evaluare.

În loc să trateze AI ca pe o amenințare de combătut prin supraveghere, oferă un limbaj comun prin care cadrele didactice și studenții negociază explicit rolul acestor instrumente pentru fiecare sarcină în parte.

Scala are cinci niveluri, fiecare descriind o așteptare diferită:

Nivelul 1, Fără AI: Evaluarea se desfășoară complet fără asistență AI, de regulă într-un mediu controlat. Studentul demonstrează exclusiv cunoștințele și competențele proprii.

Nivelul 2, AI pentru planificare: AI poate fi folosit în faze pregătitoare (brainstorming, structurare, cercetare inițială), dar nu în redactarea propriu-zisă. Produsul final aparține studentului.

Nivelul 3, AI ca asistent: AI poate fi integrat în procesul de scriere (sugestii de formulare, verificare gramaticală, îmbunătățirea clarității), dar studentul rămâne autorul principal și declară contribuția AI. Acesta este nivelul care reflectă cel mai fidel modul în care profesioniștii folosesc deja aceste instrumente.

Nivelul 4, AI ca partener: Colaborare mai profundă, în care studentul ghidează, evaluează critic și rafinează outputul AI. Accentul cade pe competența de a lucra cu AI, nu pe producerea unui text independent de el.

Nivelul 5, Explorare AI: AI este instrumentul central al sarcinii. Studentul testează și evaluează critic capacitățile și limitele modelelor. Relevant pentru cursuri care au ca subiect însuși AI sau implicațiile sale.

Detectoarele AI funcționează pe logica suspiciunii retroactive: presupun că frauda a avut loc și încearcă să o dovedească după fapt, cu instrumente nesigure. AIAS funcționează pe logica transparenței anticipate: definește în avans ce este permis și invită studentul să declare ce a ales să facă.

Un student vorbitor non-nativ care folosește AI pentru a-și corecta gramatica la Nivelul 3 nu comite nicio fraudă, își declară utilizarea AI-ului și lucrează în cadrul explicit stabilit.

Modelul punitiv al detectoarelor pornește de la o premisă pedagogică discutabilă: că studenții trebuie descurajați să folosească AI prin frica de a fi prinși. AIAS pornește de la o premisă diferită: că studenții trebuie să învețe să lucreze cu AI în mod critic și responsabil, deoarece aceasta este competența relevantă pentru piața muncii în care vor intra. A forma studenți care nu știu să folosească AI nu este o victorie pedagogică, este o pregătire pentru eșec.

Surse:

Perkins, M., Roe, J., Vu, B.H., Postma, D., Hickerson, D., McGaughran, J., & Khuat, H.Q. (2024). Simple techniques to bypass GenAI text detectors: implications for inclusive education. „International Journal of Educational Technology in Higher Education”, 21(53).

Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non-native English writers. „Patterns” [disponibil în platforma Science Direct]

Weber-Wulff, D. et al. (2023). Testing of detection tools for AI-generated text. „International Journal for Educational Integrity”, 19(1).

Perkins, M., Furze, L., Roe, J., & MacVaugh, J. (2024). The Artificial Intelligence Assessment Scale (AIAS): A Framework for Ethical Integration of Generative AI in Educational Assessment. „Journal of University Teaching and Learning Practice”, 21(06).

Perkins, M., Roe, J., & Furze, L. (2024). The AI Assessment Scale Revisited: A Framework for Educational Assessment [Preprint]. arXiv.

Furze, L., Perkins, M., Roe, J., & MacVaugh, J. (2024). The AI Assessment Scale (AIAS) in action: A pilot implementation of GenAI-supported assessment. „Australasian Journal of Educational Technology”.

Lancaster, T. et al. (2026). Heads we win, tails you lose: AI detectors in education. „Journal of Higher Education Policy and Management”.

[Autor necunoscut] (2025). Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education. MDPI Information.

[Autor necunoscut] (2025). AI-generated text detection: A comprehensive review of methods, datasets, and applications. ScienceDirect.

[Studiu comparativ] (ianuarie 2025). AI vs AI: How effective are Turnitin, ZeroGPT, GPTZero, and Writer AI in detecting text generated by ChatGPT, Perplexity, and Gemini?, „Journal of Applied Learning & Teaching”.

Articolul este ilustrat cu o imagine generată de AI și publicată de Harry Williamson

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.