Dintre toate reactiile provocate de ChatGPT, chatbot-ul de la compania americana pentru profit OpenAI, care produce raspunsuri corecte din punct de vedere gramatical la interogarile in limbaj natural, putine s-au egalat cu cele ale educatorilor si ale cadrelor universitare.
Editorii academicieni au luat masuri pentru a interzice lista ChatGPT ca co-autor si a emite linii directoare stricte care descriu conditiile in care poate fi utilizat. Cele mai importante universitati si scoli din intreaga lume, de la renumita Sciences Po din Franta pana la multe universitati australiene, au interzis utilizarea acestuia.
Aceste interdictii nu sunt doar actiunile cadrelor universitare care se tem ca nu vor putea prinde trisori. Nu este vorba doar de a prinde elevi care au copiat o sursa fara atribuire. Mai degraba, severitatea acestor actiuni reflecta o intrebare, una care nu primeste suficienta atentie in acoperirea nesfarsita a chatbot-ului ChatGPT al OpenAI: De ce ar trebui sa avem incredere in tot ceea ce emite?
Aceasta este o intrebare de o importanta vitala, deoarece ChatGPT si programe similare pot fi utilizate cu usurinta, cu sau fara aviz, in sursele de informatii care cuprind fundamentul societatii noastre, in special mediul academic si mass-media de stiri.
Pe baza muncii mele privind economia politica a guvernarii cunoasterii, interdictiile academice privind utilizarea ChatGPT sunt o reactie proportionala la amenintarea pe care o reprezinta ChatGPT pentru intregul nostru ecosistem informational. Jurnalistii si cadrele universitare ar trebui sa se fereasca de utilizarea ChatGPT.
Pe baza rezultatelor sale, ChatGPT ar putea parea doar o alta sursa de informatii sau un instrument. Cu toate acestea, in realitate, ChatGPT – sau, mai degraba, mijlocul prin care ChatGPT isi produce rezultatele – este un pumnal care vizeaza in mod direct insasi credibilitatea lor ca surse autorizate de cunostinte. Nu trebuie luat cu usurinta.
Incredere si informatii
Ganditi-va de ce vedem unele surse de informatii sau tipuri de cunostinte ca fiind mai de incredere decat altele. De la Iluminismul european, am avut tendinta de a echivala cunostintele stiintifice cu cunostintele in general.
Stiinta este mai mult decat cercetare de laborator: este un mod de gandire care prioritizeaza dovezile bazate pe empiric si urmarirea unor metode transparente privind colectarea si evaluarea dovezilor. Si tinde sa fie standardul de aur dupa care este judecata toata cunoasterea.
De exemplu, jurnalistii au credibilitate pentru ca investigheaza informatii, citeaza surse si ofera dovezi. Chiar daca uneori raportarea poate contine erori sau omisiuni, asta nu schimba autoritatea profesiei.
Acelasi lucru este valabil si pentru redactorii de opinie, in special cadrele universitare si alti experti, deoarece ei – noi – ne extrag autoritatea din statutul nostru de experti intr-un subiect. Expertiza presupune controlul surselor care sunt recunoscute ca cuprinzand cunostinte legitime in domeniile noastre.
Majoritatea articolelor de opinie nu sunt foarte citate, dar cadrele academice responsabile va vor putea indrepta catre ganditori si munca pe care se bazeaza. Si acele surse in sine sunt construite pe surse verificabile pe care un cititor ar trebui sa le poata verifica singur.
Adevarul si rezultatele
Deoarece scriitorii umani si ChatGPT par sa produca aceeasi rezultate – propozitii si paragrafe – este de inteles ca unii oameni ar putea conferi in mod eronat aceasta autoritate din surse stiintifice rezultatelor ChatGPT.
Ca atat ChatGPT, cat si reporterii produc propozitii este locul in care se termina asemanarea. Ceea ce este cel mai important – sursa de autoritate – nu este ceea ce produc ei, ci modul in care o produc.
ChatGPT nu produce propozitii in acelasi mod in care o face un reporter. ChatGPT si alte modele de limbaj mari de invatare automata pot parea sofisticate, dar sunt practic doar masini complexe de completare automata. Numai in loc sa sugereze urmatorul cuvant intr-un e-mail, ei produc cuvintele cele mai probabile din punct de vedere statistic in pachete mult mai lungi.
Aceste programe reambaleaza munca altora ca si cum ar fi ceva nou. Nu „intelege” ce produce.
Justificarea acestor rezultate nu poate fi niciodata adevarul. Adevarul sau este adevarul corelatiei, ca cuvantul „propozitie” ar trebui sa completeze intotdeauna expresia „Ne terminam unul pe altul…” pentru ca este cea mai frecventa aparitie, nu pentru ca exprima ceva ce a fost observat.
Deoarece adevarul ChatGPT este doar un adevar statistic, rezultatul produs de acest program nu poate fi niciodata de incredere in acelasi mod in care putem avea incredere intr-un reporter sau in rezultatele unui academic. Nu poate fi verificat deoarece a fost construit pentru a crea rezultate intr-un mod diferit decat ceea ce credem de obicei ca fiind „stiintific”.
Nu puteti verifica sursele ChatGPT deoarece sursa este faptul statistic ca de cele mai multe ori, un set de cuvinte tind sa se succeda.
Indiferent cat de coerenta ar parea rezultatul ChatGPT, pur si simplu publicarea a ceea ce produce este totusi echivalentul cu a lasa automat completarea sa ruleze. Este o practica iresponsabila, deoarece pretinde ca aceste trucuri statistice sunt echivalente cu cunostinte bine furnizate si verificate.
In mod similar, academicienii si altii care incorporeaza ChatGPT in fluxul lor de lucru risca existential de a da afara intregul edificiu al cunostintelor stiintifice de sub ei insisi.
Deoarece rezultatul ChatGPT este bazat pe corelatie, de unde stie scriitorul ca este corect? Au verificat-o fata de sursele reale sau pur si simplu rezultatul este conform cu prejudecatile lor personale? Si daca sunt experti in domeniul lor, de ce folosesc ChatGPT in primul rand?
Academicienii au autoritate cu privire la subiectul lor de expertiza, deoarece exista o metoda stiintifica si bazata pe dovezi pentru a verifica munca lor.
Producerea si verificarea cunostintelor
Ideea este ca procesele ChatGPT nu ne ofera nicio modalitate de a-i verifica veridicitatea. In schimb, faptul ca reporterii si academicienii au o metoda stiintifica, bazata pe dovezi de producere a cunostintelor, serveste la validarea muncii lor, chiar daca rezultatele ar putea fi impotriva notiunilor noastre preconcepute.
Problema este deosebit de acuta pentru cadrele universitare, avand in vedere rolul nostru central in crearea cunostintelor. Bazandu-te pe ChatGPT pentru a scrie chiar si o parte dintr-o coloana inseamna ca nu se mai bazeaza pe autoritatea stiintifica incorporata in sursele verificate.
In schimb, recurgand la textul generat statistic, acestia fac efectiv un argument din partea autoritatii. Astfel de actiuni induc in eroare si cititorul, deoarece cititorul nu poate distinge intre textul unui autor si un AI.
ChatGPT poate produce cunostinte aparent lizibile, ca prin magie. Dar am fi bine sfatuiti sa nu confundam rezultatele sale cu cunostintele stiintifice reale. Nu trebuie sa confundam niciodata coerenta cu intelegerea.
ChatGPT promite acces usor la cunostinte noi si existente, dar este un potir otravit. Cititorii, academicienii si reporterii atentie.