fallback

Как изкуственият интелект може да навреди на изборите?

Според нов доклад AI инструменти могат да бъдат ползвани за създаването на изображения, които да разпространяват дезинформация

06.03.2024 | 16:02 Автор: Беатрис Младжова

Инструменти за създаване на образи с изкуствен интелект (AI) от компании като OpenAI и Microsoft могат да бъдат използвани за генерирането на изображения, които могат да разпространяват свързана с избори дезинформация, въпреки че компаниите имат политики срещу създаването на подвеждащо съдържание, сочи нов доклад от сряда, цитиран от Ройтерс.

Неправителствената организация Център за противодействие на дигиталната омраза (Center for Countering Digital Hate, CCDH) е използвала инструменти за генеративен AI, за да създаде снимки на американския президент Джо Байдън в болнично легло и изборни служители, разбиващи машини за гласуване. Това предизвиква опасения за фалшификации преди президентския вот в САЩ през ноември.

"Потенциалът такива генерирани от AI образи да послужат като "фотодоказателство" може да влоши разпространението на фалшиви твърдения, което представлява значително предизвикателство за запазването на интегритета на изборите", казват изследователите от CCDH в доклада.

В имейл основателят на Midjourney Дейвид Холц заяви, че "скоро предстоят актуализации, свързани конкретно с предстоящите избори в САЩ", добавяйки, че изображенията, създадени през последната година, не са представителни за текущите практики на модериране на компанията.

Говорител на Stability AI заяви, че стартъпът е актуализирал политиките си в петък, за да забрани "измама или създаването или разпространението на дезинформация".

Говорител на OpenAI е отговорил, че компанията полага усилия, за да не позволи злоупотребата с инструментите ѝ, а Microsoft не е отговорила на искането за коментар.

Четете повече по темата в investor.bg

Снимка: Pixabay

fallback
Още от Техно
fallback