fallback

Изкуственият интелект допуска големи грешки при подбора на кадри

Жените, които не са работили поради майчинство или грижа за болен, автоматично отпадат от кандидатите

25.03.2024 | 10:14 Автор: Вяра Димова

Очакванията, че изкуственият интелект ще бъде по-коректен от хората в някои случаи не се оправдават. Въпреки предимствата си, се оказва, че невинаги можем да му се доверим. Изследване на Нюйоркския университет показва, че изкуственият интелект невинаги отсява кандидатите за определена позиция по най-добрия начин. Ако кандидатът не е работил в определен период, той бива отхвърлян.

Най-често жените, които не са работили поради майчинство или грижа за болен, автоматично отпадат.

Проучването изследва усъвършенствани системи, които са използвани при наемането на служители, като Chat GPT3.5, Google Bard и др. Преди това друго проучване на "Harvard Business School" установява също, че кандидати с отлична квалификация отпадат също, защото в биографията им е  вписано, че повече от 6 месеца не са работили.

Изкуственият интелект навлиза бързо в предварителното отсяване автобиографии на кандидатите за работа в САЩ и при 75% от случаите подадените документи най-напред се "четат" и селектират от робот, който се оказва, че не е безпристрастен, предаде БНР.

Щатът Ню Йорк е първият, който въведе изискване за проверка за безпристрастност на изкуствения интелект, прилаган при наемане на служители. 

Снимка: pixabay

fallback
Още от Техно
fallback