fallback

Изкуственият интелект създава фалшиви новини и изображения - можем ли да ги разпознаем?

Технологията прави и убедителни гласови симулации

07.04.2024 | 20:39 Автор: Толя Стоянова

Най-добрите големи езикови модели вече могат да пишат като хора, особено ако са правилно подтикнати. Снимките и изображенията могат да бъдат фалшифицирани на ниска цена. Все още неоповестена технология може да създава убедителни гласови симулации. Има признаци, че някои академични документи съдържат следи от GPT-4. С разпространението на революцията на изкуствения интелект ще се появят и фалшификатите с негова помощ. Това е неизбежно, но може да бъде овладяно - стига потребителите и производителите да направят значителни промени в начина, по който използват интернет.

В интернет след появата на изкуствения интелект ще има много безплатно, подкрепяно от реклами, съдържание, пълно с фалшификати с изкуствен интелект, предназначени да привлекат най-малкия общ знаменател. Първият въпрос е дали някой изобщо ще забележи това? В края на краищата, вече има много нискокачествени и ненадеждни канали, които в повечето случаи не се управляват от ИИ.

Технологиите за откриване на фалшификати с изкуствен интелект ще се развиват и усъвършенстват и ще има надпревара във въоръжаването. Докато откриването работи, безплатният интернет, поддържан от реклами, ще продължи да съществува. Читателите, слушателите и зрителите ще могат да използват собствените си ИИ, за да намират съдържание, което им харесва, а определен процент от тях може да предпочитат фалшификатите.

Четете повече в bloombergtv.bg.

Снимка: Pixabay

fallback
Още от Техно
fallback