
Федерика Русо е щатен професор по философия и етика на техно-науката. Тя работи в катедрата „Вестердайк“ в Института „Фройдентал“ в Университета в Утрехт и е почетен професор в Университетския колеж в Лондон (катедра „Научни и технологични изследвания“). Била е гост преподавател и е работила по изследователски проекти в университетите в Кент, Питсбърг и Лувен.
Нейните изследвания засягат епистемологични, методологични и нормативни аспекти, които възникват в здравните и социалните науки, като обръща специално внимание на политическите контексти и на силно технологизирания характер на тези области. Федерика има множество публикации по в тези области.
Понастоящем Федерика е главен редактор на Digital Society; в миналото тя е била главен редактор (заедно с Филис Илари) на European Journal for Philosophy of Science и е изпълнителен редактор на Philosophy and Technology. Тя е член на Управителния комитет на Европейската асоциация по философия на науката и външен член на факултета в Института за напреднали изследвания към Университета в Амстердам.
На 26 октомври Федерика Русо се включи в конференцията AI N’ CYBER 2023, организирана от Дигитална национална коалиция в партньорство с Еconomic.bg и Фондация „Конрад Аденауер“.
Ето какво споделя тя в интервю за Еconomic.bg
-Как еволюираха инструментите за предизвикване на дезинформация през последните години? За колко голям научен и технологичен скок става дума и каква е опасността той да се окаже многократно надхвърлящ пределите на човешкия морал, както се случи с атомната бомба, например?
-Благодаря за въпроса. Важно е да се има предвид, че дезинформацията не е ново явление. Ясно е, че цифровите технологии – а в последно време и разработването на системи с изкуствен интелект, способни да променят снимки, видеоклипове и аудиоматериали – бързо променят начина, по който се разпространяват фалшификатите. Това, което се е променило, е начинът, по който се манипулира визуалното и аудиосъдържанието, което е въпрос не само на технически характеристики, но и на смисъла, който тези промени носят със себе си. За съжаление, няколко пъти в историята си сме преминавали границата на човешкия морал, включително и доста преди атомната бомба – за да използвам отново вашия пример. Но за мен това не е конструктивният начин за поставяне на въпроса за цифровите технологии като цяло и в случая с дезинформацията в частност.
-Бихте ли обяснили какво представлява GANs технологията – защо тя е толкова добре приложима за фалшиви новини и какво я прави толкова опасна? А каква е разликата с GPT моделите?
-GANs са клас системи с изкуствен интелект, способни да променят визуално или аудиосъдържание, използвайки техниката “adversarial” (съперничество) между две мрежи, а човек „печели“ от качественото подобрение на направените промени (б.р. – Generative Adversarial Networks (GANs) са популярен клас генериращи модели за дълбоко обучение, които често се използват за генериране на изображения. Те се състоят от двойка невронни мрежи, наречени дискриминатор и генератор. Задачата на дискриминатора е да разграничи реалните изображения от генерираните (фалшиви), докато мрежата на генератора се опитва да заблуди дискриминатора, като генерира все по-реалистични изображения).
Моделите на GPT са клас „големи езикови“ модели, които работят с текст. Отново, много просто казано, те могат да „създават“ нов текст въз основа на входни данни, предоставени от потребителя и като използват голямата база данни, на която са обучени. Това са наистина различни видове модели, но общото между тях е, че принадлежат към „генеративния изкуствен интелект“, което означава, че системата за изкуствен интелект измисля „ново“ съдържание – ново по отношение на базата данни, използвана за обучението ѝ.
-Неконтролируемото разпространение на фалшивите новини вече е огромен проблем. Как задълбочаващата се комерсиализация и популяризирането на генеративния изкуствен интелект го подхранват?
-Със сигурност го прави, но не разполагам с числа, които да определят „доколко“ това се случва. Със сигурност е обезпокоително, че технологиите за създаване на съдържание, генерирано от изкуствен интелект, са само на един клик разстояние от всеки средностатистически потребител, на всякаква възраст и с всякакво ниво на цифрова грамотност.
–Свидетели сме на много примери на подкопаване на демокрацията посредством дезинформация. Кои са онези невидими процеси на социално и индивидуално ниво, които допринасят за тази ерозия?
-Задавате въпрос, на който социолозите биха могли да отговорят по-добре от мен. Аз съм философ на науката и технологиите и невидимите процеси, които виждам, се отнасят до „системата“ или „мрежата“, към която принадлежат хората, институциите, платформите на социалните медии. Или с други думи, съществуват множество пътища както на обществено, така и на индивидуално ниво, които могат да обяснят появата на подобни епизоди. Но не можем просто да хвърлим пръст върху GAN или друга генеративна система на AI. Трябва да разберем по-широката мрежа, в която се използват тези инструменти.
Дълбоките фалшификати, генерирани с изкуствен интелект, размиват представите ни за това кое е истина и кое измислица. Как се отразява това върху естествения интелект и с какви данни (по примера на ML) трябва да бъде трениран той, че да съумее да изгради здрави и устойчиви граници?
Моето мнение е, че е донякъде илюзия, че „преди“ е имало рязко разграничение между истина и измислица. Всъщност това е целият смисъл в разбирането на ролята на изобразителното изкуство, фотографията и др. Но е вярно, че се запознахме с идеята, че картините изобразяват нещо истинско, а видеоклиповете може би дори повече, тъй като добавят динамичен елемент. Впечатлението ми е, че се нуждаем от повече критично мислене и нагласа за разбиране на нюансите – рентгеновата снимка на счупената ми ръка също не е „истинска“ картина на счупването. Здравите граници между сферата на истината и измислицата – ако изобщо могат да бъдат възстановени – са продукт на способността ни да преценяваме.
–Джинът вече е излязъл от бутилката и технологията ще става все по-добра – какви контраинструменти се развиват и достатъчно ефективни ли са те?
-Въпросът е поставен с право. Едва сега започваме да разработваме инструменти, които да противодействат на бързото разпространение на дезинформация. Някои инструменти са в сферата на управлението и регулирането, други – в сферата на образованието (както в училище, така и в семейството). Едно от големите предизвикателства, които виждам, е, че поколението, което трябва да разработи такива инструменти, е това, което е по-малко запознато с използването им. Сякаш трябва да регулираме и да се обучаваме за използването на нещо, което самите ние не владеем. Но трябва да го направим, защото вече виждаме, че не вървим в правилната посока и е необходимо повече.
–Има ли монетата обратна страна – как този тип технологии (GANs и GPT) могат да бъдат използвани за добро?
-Радвам се, че задавате този въпрос, защото общото ми отношение към (цифровите) технологии е, че те сами по себе си не са нито лоши, нито добри. Иска ми се всички иновации да се проектират с добри намерения и цели. Използването на съдържанието, генерирано от изкуствен интелект, за добри цели е изследвано за създаване на образователно съдържание или във филмовата индустрия. GPT са по-противоречиви, но се съобщава и за добра употреба, например за подпомагане на потребителите при писане – но всичко това предполага фундаментални въпроси за целта, за насоките за използване и за грамотността, които според мен не са изрично поставени.
–Ръководите международния изследователски проект SOLARIS, в който „Бранд Медиа България“ също е партньор – бихте ли ни разказали за неговите цели? Как се очаква SOLARIS да допринесе за решаването на задълбочаващите се проблеми с дълбоките фалшификати?
-Благодаря за интереса към проекта. Иска ми се един проект да може да допринесе за решения! Но по-скромно, ние предлагаме да разбираме генеративния AI (от който са част GAN или GPT) като част от мрежа или система, както споменах преди малко. От гледна точка на тази мрежа искаме да разберем кои елементи в нея ни карат да вярваме в аудио-визуално съдържание, което е генерирано от AI. Нашата хипотеза е, че качеството на видеоклиповете или аудиоматериалите само частично обяснява това. Ще проверим тази хипотеза емпирично. Също така ще симулираме разпространението на дълбоки фалшификати и ще наблюдаваме реакцията на институциите в такива случаи. И накрая, ще експериментираме със съвместното създаване на съдържание, генерирано от изкуствен интелект, за добри цели. Въз основа на нашите констатации ще изготвим препоръки за политиката.
–Какво показват проучванията ви досега – за дигиталната грамотност на потребителите и за степента на проникване на GANs инструментите в обществото?
-Все още не сме стигнали дотам. В първия ни случай на употреба наистина ще интервюираме потребителите и се надяваме да получим повече информация за тяхната цифрова грамотност и така евентуално да установим връзка между нея и доверието в съдържание, генерирано от изкуствен интелект.
Източник: economic.bg