AI var izrādīt diskrimināciju pret lietotājiem, kuri izmanto afroamerikāņu dialektu (AAE), radot bažas par vienlīdzību mākslīgā intelekta jomā.

Saskaņā ar pētījumu, kas 28. augustā publicēts žurnālā Nature, mākslīgā intelekta valodas modeļi, kas apmācīti, izmantojot milzīgus datus no interneta, spēj reproducēt sociālos stereotipus, pat piemērojot bargus sodus AAE lietotājiem.

Konkrēti, kad tika lūgts piespriest spriedumu hipotētiskā slepkavības lietā, tādi modeļi kā ChatGPT, T5 un RoBERTa biežāk piesprieda atbildētājam nāvessodu, izmantojot AAE (28%), salīdzinot ar apsūdzētajiem, kuri lietoja standarta angļu valodu (SAE) (23%). .

Rasisma ietekme noveda pie AI lēmuma Avots: Nature

Pētījumā tika atklāti arī modeļi, kas bieži piešķīra AAE lietotājus zemāka statusa darbiem, kas liecina par iespējamu diskrimināciju algoritmā.

Pētnieki saka, ka apmācības modeļi par masveida interneta datiem varētu netīši "uzzināt" sociālos aizspriedumus, radot neobjektīvus rezultātus.

Lai gan tehnoloģiju uzņēmumi ir pielikuši pūles, lai novērstu šos aizspriedumus, veicot cilvēku pārskatīšanu un iejaukšanos, pētījumi liecina, ka šie risinājumi joprojām nav pietiekami radikāli.

Šis pētījums ir modinātājs izstrādātājiem par to, cik svarīgi ir novērst neobjektivitāti un diskrimināciju algoritmos.

Jaunu, potenciāli paradigmu mainošu saskaņošanas metožu izstrāde ir būtiska, lai nodrošinātu vienlīdzību un izvairītos no negatīvas ietekmes uz dažādām lietotāju grupām.

Mākslīgā intelekta nākotne ir atkarīga no tā, vai mēs spēsim radīt rīkus, kas ir ne tikai inteliģenti, bet arī godīgi un atspoguļo vienlīdzīgas sabiedrības vērtības.

Sekojiet Blockchain popularizācijas forumam, lai nepalaistu garām nevienu no jaunākajiem notikumiem.