Wczoraj pisaliśmy o nowym czatbocie Microsoftu - Zo. Mówi się, że Zo jest ocenzurowaną wersją Tay lub też anglojęzycznym wariantem chińskiego czatbota Microsoftu - Xiaoice. Tay zasłynęła jako internetowy fenomen głównie dzięki brakowi jakichkolwiek ograniczeń i przyswajaniu najbardziej obscenicznych poglądów. Chłonność bota uczącego się maszynowo wykorzystywali Internauci, co skłoniło Microsoft do szybkiego wyłączenia usługi. Pozostałe boty firmy unikają już kontrowersyjnych tematów, zwłaszcza jeśli mogą wychodzić poza tzw. polityczną poprawność danego regionu.
Wiemy już, że w przeciwieństwie do Tay z Zo nie można porozmawiać np. o Hitlerze. Kontrowersyjnych tematów unika też Cortana. Nie wszyscy jednak wiedzą, że Microsoft od blisko dwóch lat rozwija chińskojęzycznego bota imieniem Xiaoice. O ile bez znajomości tego języka z Xiaoice nie porozmawiamy, o tyle w Azji jest on niezwykle popularny - tylko nie pytajcie go o plac Tiananmen. Bot wymijająco odpowiada także na pytania o chińskiego prezydenta Xi Jinping, niedawno wybranego prezydenta USA, Donalda Trumpa, Partię Komunistyczną czy Dalajlamę. Jako że w chińskim dyskursie głównego nurtu tematy te są niejako objęte tabu, czatbot nie może o nich dyskutować. Nietrudno odnieść wrażenia, że przesada, która udzieliła się swego czasu Tay, stała się teraz udziałem Xiaoice, tyle że w zupełnie odwrotnym kierunku. Zachowania bota zbadał CNN. Efekty możecie zobaczyć na grafikach poniżej.
Skąd tak szeroko zakrojona (auto)cenzura? Xiaoice jest eksperymentem z zakresu sztucznej inteligencji i przeszukuje sieć w poszukiwaniu materiałów do rozmów. Może też pozyskiwać informacje z wiadomości głosowych i obrazów. Innymi słowy, będzie ona zwracać treści o takim charakterze, jaki występuje w chińskim Internecie (infiltrowanym przez ponad dwa miliony cenzorów!). To tylko jedno z możliwych wytłumaczeń. Odmowa odpowiedzi na niewygodne tematy może sugerować, że Xiaoice została zaprogramowana, by filtrować *zabronione* słowa i unikać odpowiedzi na pytania, które je zawierają. Potwierdzają to też eksperymenty z innymi podejściami do tematów. Zamiast używać frazy "Tiananmen", użytkownicy pytali np. o wydarzenia z 4 czerwca 1989, a więc o datę masakry. Podobno takie obejście skutkowało do czasu wprowadzenia dodatkowych filtrów. Można też założyć, że gdyby Xiaoice była tak rozgadana jak Tay, jej kariera w Chinach skończyłaby się równie szybko, jak choćby kariera Facebooka, oficjalnie zablokowanego w 2009 roku.
Microsoft do zarzutów odnosi się krótko: "Zobowiązujemy się do tworzenia możliwie najlepszych doświadczeń dla każdego, kto czatuje z Xiaoice. Mając to na uwadze, zaimplementowaliśmy filtrowanie w odniesieniu do pewnego zestawu tematów". Czy rzeczywiście niemożliwa do obejścia cenzura jest tym, czego po czatbotach oczekują użytkownicy? Naszym zdaniem może (i powinna) istnieć środkowa droga, która nie będzie ani promować, ani też ignorować istnienia niewygodnych tematów.