Studiul de la Cornell University arată că modelele de limbaj mari (LLMs) au mai multe șanse să criminalizeze utilizatorii care folosesc limba engleză afro-americană. Dialectul limbii pe care o vorbiți decide ceea ce va spune inteligența artificială (AI) despre caracterul dumneavoastră, angajabilitatea și dacă sunteți infractor. Studiul a folosit sondaje de tip guisă pentru a identifica proprietățile oamenilor care ar vorbi atât în engleză afro-americană, cât și în engleză standardizată americană. Tehnologia GPT-4 era mai probabil să “condamne la moarte inculpații” când vorbesc în engleză folosită de afro-americani. Studiul arată că modelele mari de limbaj înțeleg mai bine engleza afro-americană și evită mai mult un limbaj rasist evident. Cu toate acestea, prejudecățile lor ascunse nu sunt afectate de mărimea lor. Metoda obișnuită de învățare a modelelor de limbaj noi prin feedback uman nu ajută la contracararea prejudecăților rasiale ascunse.În schimb, studiul a arătat că poate învăța modelele de limbaj să “mascheze superficial rasismul pe care îl mențin în profunzime”.
Sursa: https://www.euronews.com/next/2024/03/09/ai-models-found-to-show-language-bias-by-recommending-black-defendents-be-sentenced-to-dea