Story of one picture
Each story is complemented with photographs, which are worth a thousand words.
Enjoy reading and hearing
Obi Wan vs Bill Ban
by Aleksander Poniewierski, APConsulting
Australia chce wprowadzić zakaz posiadania i używania mediów społecznościowych przez dzieci poniżej 16. roku życia. Co ciekawe, zakaz ma obowiązywać nawet w przypadku, gdy rodzice wyraziliby zgodę na korzystanie przez ich dzieci z takich mediów. Testowanie systemu biometrycznego ma się rozpocząć jeszcze w tym roku. Z jednej strony dobrze, że problem jest dostrzegany i podejmowane są systemowe próby jego rozwiązania, z drugiej strony łatwo wyobrazić sobie obejścia, od VPN-ów po rejestrowanie urządzeń w innych krajach.
Mnie jednak zastanawia, dlaczego w świecie, w którym rozwija się szał na AI, nie próbujemy znajdować sprawnych i efektywnych metod wykorzystania tego narzędzia do oczyszczania sieci społecznościowych ze złych treści. Zamiast tego wybieramy pozornie najprostszą, lecz najmniej efektywną ścieżkę. Dlaczego operatorzy platform nie mają obowiązku weryfikacji treści i przeciwdziałania patologiom?
Telewizje publiczne czy stacje radiowe muszą kontrolować treści. Odpowiedzialność za prowadzenie społecznie odpowiedzialnego biznesu spoczywa właśnie na nich. Dlaczego więc akceptujemy, że platformy społecznościowe nie odpowiadają za treści? Jeśli z chirurgiczną precyzją potrafią rekomendować treści dzięki silnikom behawioralnym, dlaczego nie mogą przeciwdziałać złym treściom? Ach, tak, przecież mamy wolność słowa i dostęp do treści dla dorosłych. Biznes musi się przecież kręcić.
Przypomina mi się tolkienowski Gandalf albo jego kopia w postaci mentora Obi-Wana Kenobiego. Ktoś musiałby określać, co jest dobre, a co złe. Społeczna reakcja w postaci raportowania jest nieskuteczna, bo wymaga statystycznego potwierdzenia. A nawet jeśli takie potwierdzenie istnieje, platformy często ignorują zgłoszenia. Przeprowadzałem eksperymenty i dzisiejsze mechanizmy są nieskuteczne.
A co z AI? Czy mogłoby przysłużyć się czemuś pozytywnemu, zamiast generować bzdurne obrazki lub melodie na jedno kopyto? Oczywiście, że tak. Problem w tym, że nikt nie jest tym zainteresowany. Młodzi poniżej 16. roku życia stanowią ponad 30% użytkowników sieci społecznościowych. Proporcja treści edukacyjnych i światopoglądowych to mniej niż 10% zawartości platform. Reszta to dramy, kontrowersje, zbieranie datków (np. tiktokerzy obrażający widzów tekstami w stylu: „Jesteś biedakiem, nie stać cię na gifty? Wy***aj.”) oraz różnego rodzaju oszustwa. Problem w tym, że to właśnie takie treści się klikają i oglądają.
A co by było, gdyby transmisje były automatycznie blokowane (tak jak teraz, gdy ktoś pali na wizji), a autor na zawsze banowany? Czy ludzkość coś by straciła? Zablokowanie konta użytkownika po jednym niecenzuralnym słowie czy szkodliwym zachowaniu mogłoby zmienić platformy na zawsze. Może nawet przestałyby istnieć.
Jeśli spojrzymy na to w ten sposób, pojawia się pytanie: czy zabraniać dzieciom patrzenia na libacje alkoholowe, czy może zabronić transmisji online z takich wydarzeń? Czy nie lepiej sprzedawać alkohol lub inne używki w ściśle wyznaczonych i kontrolowanych miejscach (fizycznych i cyfrowych), zamiast tworzyć skomplikowane systemy ograniczania dostępu? Dlaczego wszyscy obywatele mają finansować systemy kontroli, skoro można te wydatki przerzucić na firmy, które chcą prowadzić taki biznes?
Przypomina mi się przykład lokali typu Go-Go czy night clubów. Nikt nie wymaga dowodu biometrycznego ani innych skomplikowanych systemów kontroli. Obowiązuje jasna regulacja dla właścicieli lokali i surowe kary za jej łamanie.
Zdjęcie wykonane w Alice Springs, w australijskim Outbacku. Miasto pełne kasyn, w których większość czasu spędzają miejscowi. Tak wybrali.
Dedykowane tym, którzy odważą się zmienić paradygmat myślenia o usługach cyfrowych i zaczną walczyć z systemową bzdurą.