Toksyczny potencjał pętli opinii YouTube


Od 2010 do W 2011 roku pracowałem nad silnikiem rekomendacji sztucznej inteligencji YouTube – algorytmem kierującym to, co widzisz na podstawie poprzednich nawyków oglądania i wyszukiwania. Jednym z moich głównych zadań było zwiększenie czasu spędzanego przez ludzi na YouTube. W tym czasie to pościg wydawał się nieszkodliwy. Ale prawie dziesięć lat później widzę, że nasza praca miała niezamierzone – ale nie nieprzewidywalne – konsekwencje. W niektórych przypadkach sztuczna inteligencja poszła strasznie źle.

Sztuczna inteligencja kontroluje dużą część tego, jak dzisiaj konsumujemy informacje. W przypadku YouTube użytkownicy spędzają 700 000 000 godzin każdego dnia oglądając filmy polecane przez algorytm. Podobnie silnik rekomendacji kanału informacyjnego Facebooka obsługuje około 950 000 000 godzin czasu oglądania dziennie.

W lutym użytkownik YouTube'a o nazwisku Matt Watson stwierdził, że algorytm rekomendacji witryny ułatwił pedofilom łączenie i udostępnianie pornografii dziecięcej w sekcjach komentarzy niektórych filmów. Odkrycie było przerażające z wielu powodów. YouTube nie tylko zarabiał na tych filmach, ale także zalecał jego algorytm aktywnie popycha tysiące użytkowników na sugestywne filmy dzieci.

Kiedy wiadomość się zepsuła, Disney i Nestlé ściągnęły reklamy z platformy. YouTube usunął tysiące filmów i zablokował możliwości komentowania na wielu innych.

Niestety, nie był to pierwszy skandal, który uderzył w YouTube w ostatnich latach. Platforma promowała treści terrorystyczne, propagandę sponsorowaną przez państwo obce, skrajną nienawiść, softophore zoophilia, nieodpowiednie treści dla dzieci i niezliczone teorie spiskowe.

Pracując nad silnikami rekomendacji, mogłem przewidzieć, że sztuczna inteligencja będzie świadomie promować szkodliwe filmy za każdym z tych skandali. W jaki sposób? Patrząc na wskaźniki zaangażowania.

Anatomia katastrofy sztucznej inteligencji

Korzystając z algorytmów rekomendacji, sztuczna inteligencja YouTube ma na celu wydłużenie czasu, jaki ludzie spędzają w Internecie. Algorytmy te śledzą i mierzą poprzednie nawyki oglądania użytkownika – i użytkowników, którzy je lubią – aby znaleźć i polecić inne filmy, z którymi będą się angażować.

W przypadku skandalu z pedofilem, AI YouTube aktywnie polecało sugestywne filmy dzieciom, które najprawdopodobniej angażowały się w te filmy. Im silniejsza sztuczna inteligencja – tym więcej danych – tym bardziej efektywna będzie rekomendacja konkretnej treści kierowanej przez użytkownika.

Oto, gdzie jest to niebezpieczne: w miarę poprawy SI będzie w stanie precyzyjniej przewidzieć, kto jest zainteresowany tą treścią; dlatego też jest mniej prawdopodobne, aby polecić takie treści tym, którzy nie są. Na tym etapie problemy z algorytmem stają się coraz trudniejsze do zauważenia, ponieważ zawartość prawdopodobnie nie zostanie oflagowana lub zgłoszona. W przypadku łańcucha rekomendacji pedofilii YouTube powinien być wdzięczny użytkownikowi, który go znalazł i ujawnił. Bez niego cykl mógłby trwać latami.

Ale ten incydent jest tylko jednym przykładem większego problemu.

Jak Hyper-Engaged Users kształtują AI

Wcześniej w tym roku naukowcy z Google's Deep Mind zbadali wpływ systemów rekomendujących, takich jak te używane przez YouTube i inne platformy. one zakończone że „pętle sprzężenia zwrotnego w systemach rekomendacji mogą doprowadzić do powstania„ komór echa ”i„ bąbelków filtrów ”, które mogą zawęzić ekspozycję treści użytkownika i ostatecznie zmienić ich światopogląd”.

Model nie uwzględnił wpływu systemu rekomendacji na rodzaj tworzonej treści. W realnym świecie sztuczna inteligencja, twórcy treści i użytkownicy wywierają silny wpływ na siebie nawzajem. Ponieważ sztuczna inteligencja ma na celu zmaksymalizowanie zaangażowania, hiper zaangażowani użytkownicy są postrzegani jako „modele do odtworzenia”. Algorytmy sztucznej inteligencji będą wtedy faworyzować zawartość takich użytkowników.

Pętla sprzężenia zwrotnego działa w następujący sposób: (1) Ludzie, którzy spędzają więcej czasu na platformach, mają większy wpływ na systemy rekomendacji. (2) Treści, z którymi się angażują, otrzymają więcej widoków / polubień. (3) Twórcy treści zauważą i utworzą więcej. (4) Ludzie będą spędzać jeszcze więcej czasu na tej treści. Dlatego ważne jest, aby wiedzieć, kim są użytkownicy za bardzo zaangażowani w platformę: są to ci, których możemy zbadać, aby przewidzieć, w którym kierunku AI przechyla świat.

Ogólnie rzecz biorąc, ważne jest, aby zbadać strukturę zachęt stanowiących podstawę mechanizmu rekomendacji. Firmy stosujące algorytmy rekomendacji chcą, aby użytkownicy angażowali się w swoje platformy tak często i jak to możliwe, ponieważ leży to w ich interesach biznesowych. Czasem w interesie użytkownika leży pozostanie na platformie tak długo, jak to możliwe – na przykład podczas słuchania muzyki – ale nie zawsze.

Wiemy, że dezinformacja, pogłoski i treści poboczne lub podziały prowadzą do znacznego zaangażowania. Nawet jeśli użytkownik zauważy zwodniczą naturę treści i zaznaczy ją, to często zdarza się to dopiero po jej zaangażowaniu. Do tego czasu jest już za późno; dali pozytywny sygnał algorytmowi. Teraz, gdy ta treść została w jakiś sposób uprzywilejowana, zostaje ulepszona, co powoduje, że twórcy przesyłają jej więcej. Napędzany przez algorytmy sztucznej inteligencji zachęcony do wzmacniania cech pozytywnych dla zaangażowania, więcej filtrów treści w systemach rekomendacji. Co więcej, jak tylko sztuczna inteligencja nauczy się, jak angażuje jedną osobę, może odtworzyć ten sam mechanizm na tysiącach użytkowników.

Nawet najlepsza sztuczna inteligencja świata – systemy napisane przez firmy bogate w zasoby, takie jak YouTube i Facebook – mogą aktywnie promować denerwujące, fałszywe i bezużyteczne treści w dążeniu do zaangażowania. Użytkownicy muszą znać podstawy AI i przeglądać silniki rekomendacji z ostrożnością. Ale taka świadomość nie powinna zależeć wyłącznie od użytkowników.

W ubiegłym roku firmy stały się coraz bardziej aktywne: zarówno Facebook, jak i YouTube ogłosiły, że zaczną wykrywać i obniżać szkodliwe treści.

Ale jeśli chcemy uniknąć przyszłości pełnej podziały i dezinformacji, jest jeszcze wiele do zrobienia. Użytkownicy muszą zrozumieć, które algorytmy AI działają dla nich i które działają przeciwko nim.

PRZEWODOWA Opinia publikuje utwory napisane przez zewnętrznych współpracowników i reprezentuje szeroki zakres punktów widzenia. Przeczytaj więcej opinii tutaj. Wyślij op-op w opinion@wired.com


Więcej świetnych opowiadań