duminică, ianuarie 19, 2025
spot_imgspot_img

Latest Posts

Modele de IA descoperite să prezinte prejudecăți lingvistice prin recomandarea ca acuzații de culoare să fie “condamnați la moarte”

Studiul de la Cornell University arată că modelele de limbaj mari (LLMs) au mai multe șanse să criminalizeze utilizatorii care folosesc limba engleză afro-americană. Dialectul limbii pe care o vorbiți decide ceea ce va spune inteligența artificială (AI) despre caracterul dumneavoastră, angajabilitatea și dacă sunteți infractor. Studiul a folosit sondaje de tip guisă pentru a identifica proprietățile oamenilor care ar vorbi atât în engleză afro-americană, cât și în engleză standardizată americană. Tehnologia GPT-4 era mai probabil să “condamne la moarte inculpații” când vorbesc în engleză folosită de afro-americani. Studiul arată că modelele mari de limbaj înțeleg mai bine engleza afro-americană și evită mai mult un limbaj rasist evident. Cu toate acestea, prejudecățile lor ascunse nu sunt afectate de mărimea lor. Metoda obișnuită de învățare a modelelor de limbaj noi prin feedback uman nu ajută la contracararea prejudecăților rasiale ascunse.În schimb, studiul a arătat că poate învăța modelele de limbaj să “mascheze superficial rasismul pe care îl mențin în profunzime”.

Sursa: https://www.euronews.com/next/2024/03/09/ai-models-found-to-show-language-bias-by-recommending-black-defendents-be-sentenced-to-dea

Latest Posts

spot_imgspot_img

Don't Miss

Stay in touch

To be updated with all the latest news, offers and special announcements.