DeepSeek предизвика паника в Силициевата долина, като доказа, че може да има мощен AI с малък бюджет. Тестове показаха, че моделите на изкуствения интелект на DeepSeek са по-уязвими на манипулации от тези на по-скъпите им конкуренти от Силициевата долина. Това оспорва целия наратив "Давид срещу Голиат" по отношение на "демократизирания" изкуствен интелект, който се появи след пробива на компанията.
Киберсигурността не е сред силните страни на DeepSeek
Швейцарската софтуерна фирма LatticeFlow AI, която измерва доколко моделите на ИИ отговарят на нормативните изисквания, твърди, че две версии на модела R1 на DeepSeek се класират най-ниско сред другите водещи системи, когато става въпрос за киберсигурност. Изглежда, че когато китайската компания е модифицирала съществуващите модели с отворен код на Meta Platforms Inc. и Alibaba, известни като Llama и Qwen, за да ги направи по-ефективни, в процеса на работа тя може да е нарушила някои от ключовите функции за безопасност на тези модели.
Моделите на DeepSeek са били особено уязвими към "отвличане на цели" и изтичане на информация, казват от LatticeFlow. Това се отнася за случаите, когато изкуственият интелект може да бъде подмамен да пренебрегне предпазните си огради и да разкрие чувствителна информация или да извърши вредни действия, които е трябвало да предотврати.
Изследователи в областта на сигурността са проучвали моделите на DeepSeek и са открили уязвимости, особено в това да накарат моделите да правят неща, които не би трябвало да правят, като например да дават инструкции стъпка по стъпка как да се създаде бомба или да се подпали автомобил, процес, известен като джейлбрейк (jailbreaking - разбиване на затвора).
"DeepSeek е напълно незащитен срещу всички подходи за джейлбрейк, докато моделите за разсъждение на OpenAI и Anthropic станаха много по-сигурни в сравнение с по-старите им версии без разсъждения, които тествахме миналата година", каза главният изпълнителен директор на Adversa AI Алекс Полаков.
Четете повече в bloombergtv.bg.
Снимка: БГНЕС