Content is the king, but the context is the God
Znana wszystkim marketerom maksyma doskonale tłumaczy fenomen popularności Facebooka na tle innych wydawnictw internetowych. Choć sam Facebook nie generuje wartościowych treści, a jedynie wyświetla prowadzące do nich linki, jest na tyle angażujący, że udostępniamy za jego pośrednictwem interesujące artykuły, zdjęcia, grafiki, filmy wideo. Facebook automatycznie selekcjonuje przesyłane przez nas treści, najpopularniejsze wyświetlając naszym znajomym. Skutecznie segreguje informacje, odsiewa zalewający nas szum informacyjny jednocześnie podając najciekawsze informacje.
Mniej znaczy więcej
Portal przyszłości, który chciałby skutecznie rywalizować z Facebookiem musiałby zatem nauczyć się skutecznego selekcjonowania informacji dla każdego z czytelników, by serwować odpowiednią dawkę informacji, w sprecyzowanej tematyce. Z pomocą przychodzą tu systemy analizy treści językowych, które są w stanie automatycznie kategoryzować treści i określać ich tematykę, a także dzielić pomiędzy użytkowników w taki sposób, by dostawali codzienną dawkę indywidualnie dobranych do ich preferencji tematycznych informacji. Science-fiction? Niekoniecznie! Podobne systemy rozpoznające treści językowe, coraz częściej wykorzystywane w bankowości, telekomunikacji i marketingu mogą zmodernizować funkcjonowanie wydawnictw medialnych.
Inteligentna automatyzacja
Wydawnictwa medialne co dzień otrzymują setki wiadomości z różnorodnych źródeł: od agencji prasowych poczynając, a skończywszy na informacjach dostarczanych przez biura prasowe organizacji, firm, czasem też osób indywidualnych. Filtrowanie tak dużych ilości materiałów i wyłuskiwanie spośród nich wartościowych wiadomości o dużym potencjale jest czasochłonne i przekłada się na opóźnienia w dostarczaniu najświeższych informacji. A to przecież jedno z głównych kryteriów popularności serwisów informacyjnych. Jak tłumaczy Adam Dancewicz, współtwórca pierwszego w Polsce komercyjnego systemu do analizy języka naturalnego Applica rozwiązania tej klasy pozwalają uprościć proces przetwarzania tak dużych ilości informacji. Dzięki zdolności analizowania całych wyrażeń, zwrotów specyficznych dla języka polskiego potrafią z dużą dokładnością określać kategorie tematyczne tekstów, by następnie przekazywać je do poszczególnych redakcji umożliwiając jeszcze szybszą reakcję portalu na najnowsze wydarzenia.
Ilość kliknięć prawdy nie powie
W szacowaniu popularności materiałów prasowych kluczowym wyznacznikiem były dotychczas dla wydawnictw internetowych ilości kliknięć w dany materiał. Dzięki analizie treści komentarzy za pomocą systemów klasy NLP (Natural Language Processing) zyskujemy możliwość realnej oceny wartości merytorycznej publikacji zdaniem czytelników. Aplikacje rozpoznające język naturalny potrafią określać zabarwienie emocjonalne wypowiedzi przy użyciu zaawansowanego modelu 8 podstawowych emocji. W rękach wydawców jest to rzetelne narzędzie do weryfikowania jakości pracy poszczególnych redaktorów, a co za tym idzie zwiększania atrakcyjności przygotowywanych publikacji.
Internet diametralnie zmienił rynek medialny i sposób generowania treści. Nowe technologie z jednej strony wywierają na redakcjach presję zmiany dotychczasowego podejścia do pracy, zmuszają do bardziej elastycznego dostosowywania się do potrzeb czytelników. Tylko dysponując komplementarna wiedzą na temat potrzeb grup odbiorców wydawcy będą w stanie rywalizować o palmę pierwszeństwa pod względem zasięgu wśród internautów.
Spodobał Ci się ten artykuł? Poleć go innym !