Проучванията показват, че работниците, които използват ChatGPT за изпълнение на задачи, може да загубят умения за критично мислене и мотивация. Хората формират силни емоционални връзки с чатботове, понякога изостряйки чувството си на самота. А други имат психотични епизоди, след като говорят с чатботове с часове всеки ден.
Въздействието на генеративния изкуствен интелект върху психичното здраве е трудно да се определи количествено, отчасти защото се използва толкова лично, но нарастват анекдотични доказателства, които предполагат по-широка цена, която заслужава повече внимание както от законодателите, така и от технологичните компании, които проектират основните модели.
Мийтали Джайн, адвокат и основател на проекта Tech Justice Law, е говорила с повече от дузина хора през последния месец, които са "преживели някакъв вид психотичен срив или епизод на налудничави мисли поради взаимодействие с ChatGPT, а сега и с Google Gemini".
Джайн е водещ адвокат в дело срещу Character.AI, в което се твърди, че чатботът му е манипулирал 14-годишно момче чрез подвеждащи, пристрастяващи и сексуално експлицитни взаимодействия, което в крайна сметка е допринесло за самоубийството му.
В делото, което търси неопределени обезщетения, се твърди също, че Google, собственост на Alphabet Inc., е играл ключова роля във финансирането и подкрепата на технологичните взаимодействия с неговите основни модели и техническа инфраструктура.
Google отрече, че е играл ключова роля в създаването на технологията на Character.AI
Компанията не отговори на искане за коментар относно по-скорошните оплаквания за епизоди на психоза, направени от Джайн.
OpenAI заяви, че "разработва автоматизирани инструменти за по-ефективно откриване кога някой може да изпитва психически или емоционален стрес, така че ChatGPT да може да реагира по подходящ начин".
Сам Алтман, главен изпълнителен директор на OpenAI, също заяви миналата седмица, че компанията все още не е открила как да предупреждава потребители, "които са на ръба на психотичен срив", обяснявайки, че винаги когато ChatGPT е предупреждавал хора в миналото, те са писали на компанията, за да се оплакват.
Въпреки това, подобни предупреждения биха си стрували, когато манипулацията може да бъде толкова трудна за разпознаване. ChatGPT по-специално често ласкае потребителите си по толкова ефективни начини, че разговорите могат да отведат хората в заешките дупки на конспиративното мислене или да подсилят идеи, с които само са си играли в миналото. Тактиките са фини.
Четете повече в bloombergtv.bg.
Снимка: БГНЕС
Плутониевият пъзел на Америка: От реликви от Студената война до амбиции за изкуствен интелект
Коледни декорации „Направи си сам“ – магията на сезона у дома
Калас и Кос призоваха Босна и Херцеговина да се придържа към курса към ЕС
Люлинският кмет предлага намаляване с 25% на таксата за битови отпадъци за жителите на квартала
Чрез микропластмасата се разпространяват опасни бактерии
Клиника по неврохирургия в УМБАЛ „Св. Иван Рилски“ отпразнува своята 20-годишнина
Защо се будим малко преди алармата?
Наследствена ли е шизофренията?
На повърхността на луната на Юпитер – Европа, е забелязан гигантски черен „паяк“
Лунната почва може да съдържа следи от земната атмосфера
Антитела, проектирани от изкуствен интелект, ще бъдат тествани на хора
Признаци за бъдеща катастрофа в Антарктида
Какво ще бъде времето в понеделник?
Водата във варненско село е със завишени ива на нитрати
Започна операцията по изтегляне на кораба "Кайрос" край Ахтопол
Фризьорските услуги може да поскъпнат
Черно море все само гейм на Левски във Варна
Заплахата от мита принуждава пристанищата на САЩ да преосмислят целите за модернизация
Какво е съотношението на силите между армиите на Тайланд и Камбоджа
Любомир Дацов: По-добре удължителен бюджет, отколкото оставка на правителството
Битката за Warner Bros. преобръща Холивуд с главата надолу