Un studiu recent a pus sub lupă recenziile peer review din domeniul științelor computaționale, descoperind o creștere bruscă a unor adjective specifice odată cu apariția ChatGPT.
Gândește-te la ultima dată când ai citit o lucrare științifică și ai remarcat cuvinte precum „lăudabil”, „inovator” sau „meticulos”. Poate că nu le-ai acordat prea multă atenție. Dar ce-ar fi dacă ți-aș spune că aceste adjective ar putea fi semnătura discretă a unui asistent AI?
Echipa condusă de Weixin Liang de la Universitatea Stanford a analizat peste 146.000 de recenzii peer review, căutând modele lingvistice care ar putea indica implicarea AI. Rezultatele sunt surprinzătoare: până la 17% din recenziile analizate ar fi putut fi modificate substanțial de chatbots.
Dar ce face ca aceste adjective să fie atât de revelatoare? Este vorba despre frecvența lor neobișnuită. „Lăudabil”, „inovator”, „meticulos”, „intricate”, „notabil” și „versatil” au apărut brusc mult mai des după lansarea ChatGPT. Este ca și cum AI-ul ar avea o paletă limitată de culori cu care încearcă să picteze un tablou complex.
Această tendință nu se limitează doar la recenzii. Andrew Gray de la University College London a extins analiza la studiile peer-reviewed publicate între 2015 și 2023. Rezultatul? O creștere semnificativă a acelorași adjective suspecte. Gray estimează că autorii a cel puțin 60.000 de lucrări publicate în 2023 – puțin peste 1% din totalul studiilor științifice – au folosit chatbots într-o oarecare măsură.
Dar ce înseamnă asta pentru tine, ca cercetător sau comunicator științific? În primul rând, este un semnal de alarmă privind transparența în procesul științific. Dacă AI-ul este folosit în peer review sau în redactarea lucrărilor, ar trebui să fie declarat deschis. Nu pentru a penaliza, ci pentru a înțelege mai bine cum influențează aceste instrumente procesul științific.
În al doilea rând, ne provoacă să regândim ce înseamnă autenticitatea în comunicarea științifică. Dacă un chatbot poate produce un text aparent competent, care este valoarea adăugată a perspectivei umane? Poate că răspunsul stă în nuanțe, în capacitatea noastră de a face conexiuni neașteptate sau de a pune întrebări provocatoare.
Inteligența artificială poate fi folosită în mod etic în cercetare și în mediul academic. Dacă vrei să știi cum, te aștept la workshopurile mele dedicate acestui subiect.
Ca cercetător sau comunicator științific, poți începe prin a fi mai atent la propriul tău limbaj. Evită să te bazezi excesiv pe adjective generale sau laudative. În schimb, concentrează-te pe descrieri specifice și detaliate ale metodologiei, rezultatelor și implicațiilor cercetării tale. Folosește exemple concrete și analogii originale pentru a-ți ilustra ideile.
În același timp, fii deschis în legătură cu utilizarea instrumentelor AI în munca ta. Dacă folosești ChatGPT sau alte sisteme similare pentru a-ți rafina ideile sau pentru a verifica gramatica, menționează acest lucru. Transparența nu doar că întărește încrederea în munca ta, dar ajută și comunitatea științifică să înțeleagă mai bine rolul și limitele AI-ului în cercetare.
Pentru peer revieweri, provocarea este și mai mare. Dacă alegi să folosești AI pentru a te ajuta în procesul de recenzie, asigură-te că aportul tău uman rămâne central. Folosește AI-ul ca pe un asistent, nu ca pe un înlocuitor. Verifică și contestă afirmațiile generate de AI, adaugă perspectiva ta unică și asigură-te că feedbackul tău reflectă o înțelegere profundă a domeniului.