Ето колко опасно е да тренираш ChatGPT

Лидерите в областта на изкуствения интелект рядко говорят за цената, която някои хора плащат

31.05.2023 | 11:50 Редактор: Тодор Петров
Ето колко опасно е да тренираш ChatGPT

Големите платформи за социални медии отдавна разчитат на модераторите на съдържание, често в страни с ниско заплащане. Подобни работни места има и в областта на генеративния изкуствен интелект. Причината е, че хората проверяват отново някои от данните за големите езикови модели като Bard или ChatGPT. Тази обратна връзка от хората е част от процеса на обучение и прави програмите толкова интелигентни, че те изглеждат човешки за своите потребители. 

Че в тази област правилата, на които демонстративно разчита технологичната индустрия, не струват много, показва изследване на журналиста Алекс Кандровиц в неговия бюлетин Big Technology. Той е разговарял с кениеца Ричард Матенге, който е бил един от онези наблюдатели на съдържанието, работещи от името на OpenAI: той пресява набора от данни за ChatGPT и филтрира неприятните неща. 

Когато през 2021 г. започва да обучава модела GPT на OpenAI, Ричард Матенге усеща, че е попаднал на перфектната позиция. След години работа в сферата на обслужването на клиенти в Найроби, Кения, той най-накрая се занимавал с нещо смислено и с бъдеще. И все пак, макар и обещаваща, позицията го белязала. В продължение на девет часа на ден, пет дни в седмицата, Матенге ръководил екип, който обучава модела на публично съдържание. 

В процеса Reinforcement Learning from Human Feedback (Усилващо обучение от човешка обратна връзка) ботовете стават по-умни, когато хората маркират съдържанието, като ги учат как да оптимизират въз основа на тази обратна връзка. Лидерите в областта на изкуствения интелект, включително Сам Алтман от OpenAI, оценяват високо техническата ефективност на тази практика, но рядко говорят за цената, която някои хора плащат, за да приведат системите за изкуствен интелект в съответствие с нашите ценности.

Аутсорсинг в бедни страни, ниски заплати - и от двете страни на Атлантическия океан всички се крият, за да избегнат отговорността за травмираните фасилитатори. Само че в случая става дума за онези хора, които като мъченици поемат всички грехове на мрежата само за да можем да имаме "чисто преживяване", когато посегнем към мобилния телефон и сърфираме в социалните мрежи.

Говорителят на OpenAI заявява, че компанията е потърсила повече информация от Sama за условията на труда. След това Sama е информирала OpenAI, че излиза от сферата на модериране на съдържание. 

Четете повече в investor.bg

Страхувате ли се от развитието на изкуствения интелект?

Не, човекът винаги ще го контролира и единствено ще ни бъде от полза.
27%
Да, има опасност да ни подчини и дори унищожи.
50%
Страхувам се единствено да не "открадне" работното ми място.
8%
Не ме интересува, имам далеч по-сериозни страхове и проблеми.
14%
Общо 2002 гласа

Снимка: БГНЕС