fallback

Изкуственият интелект вече се използва и от хакери - ето как

Open AI вече може да имитира организации или отделни хора

06.08.2023 | 18:15 Автор: Михаела Кирилова

Хакери и пропагандисти използват изкуствен интелект (AI), за да създават злонамерен софтуер, да изготвят убедителни фишинг имейли и да разпространяват дезинформация онлайн, твърди висш служител по киберсигурност на Канада пред Ройтерс. Това е ранно доказателство, че технологичната революция, която се случва в Силициевата долина, се възприема и от киберпрестъпниците.

Ръководителят на Канадския център за киберсигурност Сами Хури сподели преди време в интервю, че неговата агенция е установила, че изкуствен интелект се използва във фишинг имейли или за създаване на конкретни типове имейли, в "зловреден код и в дезинформация". Хури не разкрива подробности или доказателства, но твърдението му, че киберпрестъпниците вече използват AI допълва цялата загриженост относно използването на новъзникващата технология от измамници.

През последните месеци няколко групи за наблюдение на киберпространството публикуваха доклади, предупреждаващи за хипотетичните рискове от AI, особено бързо развиващите се програми, познати като големи езикови модели (LLM), които черпят от огромни масиви от текст, за да създават убедително звучащи диалози, документи и други.

През март Европол публикува доклад, в който се казва, че модели като ChatGPT на OpenAI са направили възможно "имитирането на организация или отделен човек по изключително реалистичен начин, дори само с основни познания по английски език". През същия месец Британският национален център за киберсигурност написа в блога си, че има риск престъпниците "да използват големи езикови модели, за да им помагат при кибератаки, надхвърлящи настоящите им възможности".

Повече по темата четете в Investor.bg

Снимка: Pexels

fallback
Още от Техно
fallback