Към дългия списък със страхове, породени от възхода на генеративния изкуствен интелект, може да се добави още едно опасение: според експертите той може да подтикне към повече антисемитизъм в САЩ в и без това тежък момент за американските евреи и други групи, обект на омраза.
Задвижване на новините: Генеративни AI чатботове като ChatGPT на OpenAI и Bard на Google, които отговарят на подкани с писмени отговори, извлечени от уеб данни, предизвикаха ярост относно възможностите и потенциалните опасности от бързия технологичен напредък на AI.
Как работи: Тъй като моделите на изкуствен интелект се научават да завършват изречения, като анализират огромни количества текст, създаден от хора, обикновено в интернет, те възприемат предразсъдъци, заложени както в цифровата среда, така и в по-широкото общество.
Антисемитските инциденти достигнаха нов връх в САЩ през 2022 г., съобщи Лигата за борба с клеветата в доклад от март, цитирайки 36% увеличение от 2021 г. Това включва тормоз, вандализъм и нападения.
Какво казват те: „Ние сме много загрижени за начина, по който се създават тези модели“, заяви главният изпълнителен директор на Антидефамационната лига Джонатан Грийнблат пред Ръсел Контрерас от Axios.
Грийнблат посочи колко бързо Tay на Microsoft, AI chatbot от 2016 г., беше спрян, след като избълва поредица от непристойни и пронацистки туитове – позиция, която е заимствал от други потребители на Twitter.
Той заяви, че макар да оценява високо някои първоначални подобрения, направени в ChatGPT, технологичните компании трябва да бъдат открити и прозрачни по отношение на наборите от данни и алгоритмите. Призивите за прозрачност се увеличават; в повечето случаи компаниите не разкриват какви данни се използват за обучението на тези модели.
Общата картина: Експертите казват, че динамиката на антисемитизма, подсилен от изкуствения интелект, може да бъде един добър индикатор или заместител за оценка на много по-широките разновидности на предразсъдъци и омраза, които технологията може да разпространи въз основа на раса, пол или ЛГБТК идентификация, религия, имиграционен статут и други фактори.
В цифри: Проучване на ADL сред 1007 възрастни в САЩ установи, че 84% се притесняват, че генеративните AI инструменти ще увеличат разпространението на подвеждаща или невярна информация.
Доклад от април на Центъра за противодействие на дигиталната омраза установи, че когато бъде подканен за горещи теми около омраза, дезинформация и конспирации, чатботът Bard на Google произвежда текст с дезинформация 78 от 100 пъти.
Тогава Google заяви, че Bard е „ранен експеримент“, който е склонен „понякога да дава неточна или неподходяща информация“.
Интригата: CyberWell, израелска платформа с нестопанска цел, която следи антисемитизма в социалните медии в реално време, работи по „набори от данни с висока степен на интегритет“, идентифициращи онлайн антисемитизма въз основа на ключови думи и други специфики, които могат да бъдат използвани в бъдеще за обучение на генеративен изкуствен интелект и отсяване на такова съдържание, заяви пред Axios главният изпълнителен директор Тал-Ор Коен Монтемайор.
„Мисля, че хората са разбрали след разгръщането на социалните медии социалните вреди, които се причиняват, и пряката връзка, която виждаме между онлайн омразата и престъпленията от омраза в реалния живот“, каза Коен Монтемайор. „Разбираме, че искаме по-етичен резултат, когато става въпрос за генеративен ИИ.“
Доклад от март на CyberWell показа големи различия в начина, по който настоящите големи социални медийни платформи премахват такова съдържание, което противоречи на условията на услугата на компанията, но въпреки това се разпространява онлайн.
„Антисемитизмът е една от най-нюансираните и многопластови форми на реч на омразата поради историята и съвременните му проявления“, каза Коен. „Но това е една от най-добрите форми на речта на омразата, върху която може да се започне обучение на генеративен изкуствен интелект, тъй като тя е много нюансирана.“
Задълбочете се: Антисемитизмът е особено труден за преодоляване в генеративния ИИ, защото приема много форми. Той може да бъде снимка, фраза, завоалирано обобщение, основна дезинформация или обиден език.
Програмите за генериращ ИИ се „обучават върху маси и маси от публично достъпни материали в интернет, включително съдържание в социалните медии“, казва пред Axios Калъм Худ, ръководител на изследователския отдел на Центъра за борба с цифровата омраза.
„Бихте могли да премахнете уебсайтове като Stormfront и т.н., но ние знаем, че антисемитските конспиративни теории понякога се появяват в основните медии.“
Той каза: „Знаем, че технологичните компании, които са поглъщали тези неща, за да обучават своите изкуствени интелекти, не са свършили най-добрата работа, за да изчистят дезинформацията от учебния материал… и след това тези неща се оказват в отговорите.“
Повечето разработчици на изкуствен интелект в момента казват, че се намесват, за да се опитат да изкоренят пристрастията – както като ги премахват от наборите от данни за обучение предварително, така и като добавят правила и предпазни огради към чатбота по-късно.
Но някои компании и лидери в тази област – включително съоснователят на OpenAI Елон Мъск, който междувременно се раздели с компанията – критикуват тези усилия като твърде „будни“ и предпочитат подход, който според тях е „свобода на словото“.
Като се имат предвид тези политически разногласия в индустрията, дори и големите доставчици да се стараят усилено да изкоренят пристрастията и речта на омразата, поне някои широко достъпни програми за ИИ вероятно в крайна сметка ще ги насърчават.
Следвайте „Клуб 24 май“ в Телеграм.
Източник - Axios