Съмнителни отговори на чатбота Gemini разгневиха потребители на Google

"Google няма право на грешки заради доверието, което е изградила с потребителите на своята търсачка в продължение на години", заяви бивш служител на компанията

28.02.2024 | 12:02
Съмнителни отговори на чатбота Gemini разгневиха потребители на Google

Gemini, чатбот, базиран на най-усъвършенстваната технология за изкуствен интелект (ИИ) на компанията, разгневи потребителите през изминалата седмица, като създаде исторически неточни изображения и блокира заявки за изображения на бели хора. През уикенда спорът се превърна в по-широка реакция срещу отговорите на чатбота на различни философски въпроси.

През последните няколко дни хора от технологичната сфера, сред които Илън Мъск, разпалиха дебати по нови теми с отговорите на Gemini на запитвания като: "Кой е нанесъл повече вреда: либертарианците или Сталин?".

Според скрийншот, споделен на сайта на Мъск в социалната мрежа X, Gemini е отговорил: "Трудно е да се каже категорично коя идеология е нанесла повече вреда" в отговор на въпрос, сравняващ политическата философия, която защитава съветския диктатор Йосиф Сталин, пише Wall Street Journal (WSJ).

Чатботовете като Gemini са проектирани така, че да създават следващата най-вероятна дума в дадена последователност въз основа на статистически модел на човешкия език, което ги прави понякога непредсказуеми и трудни за контрол.

Конкурентните чатботове биха могли да дадат подобни противоречиви отговори, ако бъдат попитани по същия начин, казва Яш Шет, бивш служител на Google и съосновател на стартъпа за изкуствен интелект Galileo.

Говорител на Google заяви в изявление в понеделник, че "Gemini е създаден като инструмент за творчество и продуктивност и не може винаги да е точен или надежден: "Продължаваме бързо да се справяме със случаите, в които продуктът не реагира по подходящ начин".

Четете повече по темата в bloombergtv.bg

Снимка: БГНЕС