Foto: techblog.kozminski.edu.pl

Inteligență articifiala vine cu mai multe aspecte decât ne-am imaginat, printre ele fiind și modul în care comunica prin anumite modele de limbaj. Pe măsură ce LLM-urile generează răspunsuri, deduc relații și interacționează cu cantități mari de date, ele încep să imite funcțiile cognitive pe care, în mod obișnuit, le asociem cu gândirea umană.

Ce sunt si cum functioneaza LLM-urile

LLM-urile funcționează utilizând tehnici avansate de învățare profundă și volume mari de date textuale. Aceste modele se bazează de obicei pe arhitecturi de transformatoare, precum transformatorul generativ pre-antrenat, care este specializat în prelucrarea datelor secvențiale, cum ar fi textul. LLM-urile sunt compuse din multiple straturi de rețele neuronale, fiecare cu parametri ajustabili în timpul antrenamentului, și sunt îmbunătățite printr-un mecanism de atenție complex care se concentrează pe anumite părți ale setului de date.

În timpul antrenamentului, aceste modele învață să prezică următorul cuvânt într-o propoziție, bazându-se pe contextul oferit de cuvintele anterioare. Modelul realizează acest lucru atribuind scoruri de probabilitate cuvintelor posibile care urmează, cuvintele fiind divizate în secvențe mai mici, numite jetoane. Aceste jetoane sunt apoi transformate în vectori numerici, care reprezintă contextul într-un mod care poate fi procesat de model.

Cunoasterea artificiala

Luați în considerare modelele de limbaj mari (LLM-uri), cum ar fi GPT. Aceste modele nu „cunosc” informații în sensul uman al cuvântului. Ele nu reflectează asupra veridicității sau falsității unei afirmații și nu au convingeri. În schimb, LLM-urile funcționează prin inferență, generând răspunsuri pe baza probabilităților ca anumite secvențe de cuvinte să apară împreună.

Cunoștințele lor sunt extrase din asocieri statistice în seturi mari de date, prezicând următoarele cuvinte în funcție de tiparele pe care le-au învățat în timpul antrenamentului, conform psychologytoday.com.

Constiinta modelelor de limbaj

Pe măsură ce explorăm limitele epistemologiei în contextul modelelor de limbaj mari (LLM-uri), ne întâlnim cu ideea fascinantă că ar putea apărea ceva asemănător cu o tehno-conștiință din aceste sisteme însa nu înseamnă că mașinile devin conștiente în același mod ca oamenii.

În cele din urmă, LLM-urile nu au cunostinte pure la propriu dar capacitatea lor remarcabilă de inferență ne provoacă să regândim natura cunoașterii în sine.