Използването на ChatGPT в работата крие опасности за мозъка

Може да загубим критичното си мислене

06.07.2025 | 21:14 Редактор:
Може да загубим мотивация.
Може да загубим мотивация.

Проучванията показват, че работниците, които използват ChatGPT за изпълнение на задачи, може да загубят умения за критично мислене и мотивация. Хората формират силни емоционални връзки с чатботове, понякога изостряйки чувството си на самота. А други имат психотични епизоди, след като говорят с чатботове с часове всеки ден.

Въздействието на генеративния изкуствен интелект върху психичното здраве е трудно да се определи количествено, отчасти защото се използва толкова лично, но нарастват анекдотични доказателства, които предполагат по-широка цена, която заслужава повече внимание както от законодателите, така и от технологичните компании, които проектират основните модели.

Мийтали Джайн, адвокат и основател на проекта Tech Justice Law, е говорила с повече от дузина хора през последния месец, които са "преживели някакъв вид психотичен срив или епизод на налудничави мисли поради взаимодействие с ChatGPT, а сега и с Google Gemini".

Джайн е водещ адвокат в дело срещу Character.AI, в което се твърди, че чатботът му е манипулирал 14-годишно момче чрез подвеждащи, пристрастяващи и сексуално експлицитни взаимодействия, което в крайна сметка е допринесло за самоубийството му.

В делото, което търси неопределени обезщетения, се твърди също, че Google, собственост на Alphabet Inc., е играл ключова роля във финансирането и подкрепата на технологичните взаимодействия с неговите основни модели и техническа инфраструктура.

Google отрече, че е играл ключова роля в създаването на технологията на Character.AI

Компанията не отговори на искане за коментар относно по-скорошните оплаквания за епизоди на психоза, направени от Джайн.

OpenAI заяви, че "разработва автоматизирани инструменти за по-ефективно откриване кога някой може да изпитва психически или емоционален стрес, така че ChatGPT да може да реагира по подходящ начин".

Сам Алтман, главен изпълнителен директор на OpenAI, също заяви миналата седмица, че компанията все още не е открила как да предупреждава потребители, "които са на ръба на психотичен срив", обяснявайки, че винаги когато ChatGPT е предупреждавал хора в миналото, те са писали на компанията, за да се оплакват.

Въпреки това, подобни предупреждения биха си стрували, когато манипулацията може да бъде толкова трудна за разпознаване. ChatGPT по-специално често ласкае потребителите си по толкова ефективни начини, че разговорите могат да отведат хората в заешките дупки на конспиративното мислене или да подсилят идеи, с които само са си играли в миналото. Тактиките са фини.

Четете повече в bloombergtv.bg.

Снимка: БГНЕС