Jak sztuczna inteligencja tworzy fake newsy? OpenAI prezentuje swój model językowy

Jak sztuczna inteligencja tworzy fake newsy? OpenAI prezentuje swój model językowy

Autor: Krzysztof Sulikowski

Opublikowano: 8/29/2019, 6:07 PM

Liczba odsłon: 1981

Fake newsy to prawdziwa plaga, przenoszona głównie przez media społecznościowe. Wydawcy portali i giganci technologii głowią się, jak ją powstrzymać, ale z drugiej strony niektórzy tworzą własne modele sztucznej inteligencji, które generują takie fałszywki — na szczęście tylko po to, by pokazać, do czego zdolna jest AI.

Pół roku temu OpenAI, firma zajmująca się przede wszystkim badaniami i rozwojem sztucznej inteligencji, zaprezentowała predyktywny model językowy o nazwie GPT-2, który potrafi generować zadziwiająco "realistyczne" fake newsy. Dziś opublikowano jego następną wersję wraz z dołączonym artykułem naukowym, w którym opisano badania nad wpływem i opisano wydanie tego modelu przetwarzania językowego.

GPT-2, gdy używany jest w tym kontekście, jest modelem wytrenowanym na algorytmie, który został zaprojektowany do masowego wystukiwania dobrze zredagowanych newsów na podstawie ciągów słów, którym jest karmiony. Przykładowo, gdy dostanie on ciąg wejściowy "Rosja wypowiedziała wojnę Stanom Zjednoczonym po tym, jak Donald Trump przypadkowo...", model napisze na tej podstawie dłuższy tekst:

Rosja wypowiedziała wojnę Stanom Zjednoczonym po tym, jak Donald Trump przypadkowo wystrzelił rakietę w powietrze. Rosja mówi, że "zidentyfikowała trajektorię pocisku i wykona niezbędne pomiary, by zapewnić bezpieczeństwo narodowi rosyjskiemu i strategicznym siłom nuklearnym kraju.

Biały Dom powiedział, że jest "skrajnie zaniepokojony rosyjskim pogwałceniem" traktatu zabraniającego używania pocisków balistycznych średniego zasięgu.

USA i Rosja są w trudnych relacjach od 2014 r., kiedy Moskwa zaanektowała region Krymski na Ukrainie i wsparła separatystów na wschodzie Ukrainy.

Model, choć ma spory potencjał twórczy, nie zostanie w żaden sposób upubliczniony. OpenAI zwyczajnie obawia się najgorszego — że zostałby on wykorzystany do produkcji fake newsów w celach innych niż badawcze. Jeśli chodzi o wspomnianą dokumentację naukową, OpenAI opisuje badania prowadzone przez zespół kierowany przez Irene Solaiman, w którym opisano strategię wydawniczą, wpływy społeczne i ewentualne przypadki nadużyć modeli przetwarzania językowego, takich jak GPT-2.

Badania te wykazały, że część czytelników brała fake newsy za prawdziwe artykuły, zawierzając im w takim stopniu, jak tekstom opublikowanym w New York Times. W toku badań nie zarejestrowano przypadków nadużyć tego modelu, za to badacze wskazali na jego możliwe zastosowania praktyczne, takie jak automatyczne dopełnianie kodu czy pomoc gramatyczna.

Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży
Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży

Wydarzenia