Изкуственият интелект може да предизвиква хаос в социалните мрежи

997
Добави коментар
Полина Йорданова
Полина Йорданова

ChatGPT, който може да пише статии, приличащи на човешки и да отговаря на всякакви въпроси е първият досег на много хора с изкуствения интелект. Базиран на сложна система, обработваща езикови данни, този чатбот е обучен с над 300 милиарда думи, а отговорите му подозрително наподобяват човешки, само че подкрепени с енциклопедични познания.

На пръв поглед това звучи чудесно, но наподобяването на човек, може да има сериозни последици. Изследователи и специалисти по киберсигурност вече предупреждават, че в социалните медии СhatGPT може да се използва безнаказано за разпространяване на пропаганда и други потенциално опасни дейности.

Дезинформационните кампании са мощен инструмент за прокарване на определени радикални политики сред обществата, а наличието на ИИ, който може да генерира текстове и да създава стратегии за подобни кампании ще улесни тяхното осъществяване като намали използването на човешки труд.

Успехът на тези кампании се дължи не само на количеството материали, които са достигнали до потребителите, а и на качеството им. ИИ вече може да създава убедителни, запомнящи се текстове, както и да ги персонализира така, че да са максимално влиятелни.

Наводняването на интернет пространството с машинно генерирани текстове, които са оригинални, а не копирани дословно, ще направи по-трудно различаването на дезинформацията и ще има по-голям ефект върху хората.

Подобен софтуер ще изведе проблема с фалшивите профили, които разпростряняват дезинформация, на съвсем ново ниво, смятат още експертите.