Wpływ sztucznej inteligencji na procesy twórcze
Sztuczna inteligencja (AI), wykorzystująca sieci generatywne przekształcające tekst w obrazy (T2I), jak DALL-E 3 czy Stable Diffusion, zrewolucjonizowała globalne procesy twórcze. Te narzędzia AI, bazujące na zaawansowanych modelach uczenia głębokiego, umożliwiają tworzenie realistycznych obrazów zgodnie z opisami tekstowymi użytkowników. Chociaż narzędzia te są coraz szerzej stosowane, niosą za sobą ryzyko nadużyć, w tym naruszeń prywatności oraz szerzenia dezinformacji czy manipulacji obrazem.
Tworzenie frameworka Latent Guard
Zespół badaczy z Hongkong University of Science and Technology oraz University of Oxford opracował framework o nazwie Latent Guard, który ma na celu poprawę bezpieczeństwa sieci T2I. Ich prace, które zostały przedstawione w artykule wstępnie opublikowanym na arXiv, skupiają się na zapobieganiu generowaniu niepożądanej lub nieetycznej zawartości poprzez przetwarzanie podpowiedzi użytkowników i wykrywanie obecności nieakceptowalnych koncepcji, które są na bieżąco aktualizowanej czarnej liście.
Podnoszenie bezpieczeństwa sieci T2I
Latent Guard czerpie inspirację z wcześniejszych metod opartych na czarnych listach, co pozwala zwiększyć bezpieczeństwo sieci T2I. Te metody zasadniczo polegają na tworzeniu list „zakazanych” słów, które nie mogą być zawarte w podpowiedziach użytkowników, ograniczając w ten sposób nieetyczne wykorzystanie tych sieci. Framework Latent Guard idzie jednak dalej, wykraczając poza dosłowne brzmienie tekstów wejściowych czy podpowiedzi użytkowników, wydobywając cechy z tekstów i mapując je na wcześniej nauczonej przestrzeni latentnej. Umożliwia to skuteczne wykrywanie niepożądanych podpowiedzi i zapobiega generowaniu dla nich obrazów.
Badania i eksperymenty związane z Latent Guard
Narzędzie Latent Guard wykorzystuje specyficzny dla zadania proces generowania danych z użyciem dużych modeli językowych, ad-hocowe komponenty architektoniczne oraz strategię uczenia kontrastywnego, aby wykorzystać wygenerowane dane. Badacze przeprowadzili szereg eksperymentów z wykorzystaniem trzech różnych zbiorów danych i porównali wydajność swojego podejścia z czterema innymi podstawowymi metodami generacji T2I. Wyniki tych eksperymentów wykazały, że ich podejście umożliwia solidne wykrywanie niebezpiecznych podpowiedzi w wielu scenariuszach i oferuje dobre możliwości generalizacji między różnymi zbiorami danych i koncepcjami.