Нова заплаха: Човекоподобен изкуствен интелект може да излезе извън контрол

OpenAI работи върху нов модел, който се очаква да получи повече отговорности

04.12.2023 | 12:04 Редактор: Тодор Петров
Нова заплаха: Човекоподобен изкуствен интелект може да излезе извън контрол

Когато миналата седмица се появиха новини, че OpenAI работи върху нов модел с изкуствен интелект (AI), наречен Q*, някои предположиха, че това е голяма стъпка към мощен, човекоподобен изкуствен интелект, който един ден може да излезе извън контрол. По-сигурното обаче е друго: шумът около Q* засили вълнението относно инженерната мощ на компанията, при това в момент, в който стартъпът се възстановява от фиаското на борда на директорите. Пиковете на вълнението за AI относно важните етапи в развитието му са завладявали обществеността и преди. Истинското предупреждение, което идва от страна на Q*, е за посоката, в която системи напредват, пише Парми Олсън в коментар за Bloomberg.

Тъй като тези инструменти стават все по-добри в разсъжденията, ще става все по-изкушаващо да им се дават по-големи отговорности.

OpenAI не е потвърдила какво е Q*, а върнатият на поста главен изпълнителен директор Сам Алтман го описва само като „нещастно изтичане на информация“, но в медиите се говори за нещо подобно на друга система, която Google разработва. Gemini е най-големият конкурент на ChatGPT, който не само ще генерира текст и изображения, но и ще го превъзхожда в планирането и изготвянето на стратегии, твърди главният изпълнителен директор на Google DeepMind Демис Хасабис. DeepMind е известен като AI модел, който победи шампионите в играта Go, а Gemini ще използва някои от тези техники за решаване на проблеми.

Тъй като все повече системи с изкуствен интелект са в състояние да правят самостоятелно неща като провеждане на изследвания, хората вероятно ще се прехвърлят от възлагането на отделни задачи към това да им дават по-голяма отговорност за някои задължения. Това може да се случи при координирането с колеги по имейл или при управление на анализи. Такъв тип дейности ще звучат изкушаващо за всяка компания, която иска да стане по-ефективна, но подобни инструменти също така обещават да изместят работни места, особено позиции на начално ниво, които улесняват навлизането на млади служители в нова област.

Компаниите, които възлагат повече на AI, също така рискуват да вкарат полови и расови стереотипи в работните си системи. Повечето компании трябва да избират измежду няколко т.нар. основни модели от OpenAI, Google или Amazon.com, за да надградят инфраструктурата си, а такива модели не просто показват вкоренени пристрастия, но и са много неразгадаеми. OpenAI и Microsoft отказаха да разкрият подробности, от които независимите изследователи да могат да определят колко пристрастни са техните езикови модели.

Четете повече в Investor.bg