ELK: Elasticsearch | Logstash | Kibana

ELK

Wraz z rozwojem aplikacji przychodzi moment, w którym zwiększa się zapotrzebowanie na dokładniejszą analizę tego, co nasz system w danej chwili robi, lub robił w przeszłości. Problem zaczyna się wtedy, gdy mamy do czynienia z architekturą rozproszoną. W takiej sytuacji, najczęściej poszczególne elementy naszego systemu znajdują się na różnych maszynach, co często utrudnia analizę występujących problemów.

Ponadto, gdy nasz system zyskuje na popularności musimy zacząć myśleć o efektywnym monitorowaniu poszczególnych jego elementów. Często, podpisujemy umowy SLA (Service Level Agreement), które wymuszają na nas pewien poziom dostępności naszych usług. Naruszenie tych umów wiąże się często z przykrymi konsekwencjami, często finansowymi. Niezapewnienie odpowiedniego poziomu dostępności nieraz doprowadzało do ruiny różne organizacje. Musimy szybko reagować na anomalie, przerwę w działaniu poszczególnych usług, kluczowe jest ustalenie przyczyny awarii i szybkie jej usunięcie.

Jednym ze sposobów monitorowania oraz ustalania przyczyn błędów w działaniu systemu jest analiza logów aplikacji i o tym opowiem w poniższym artykule.

Zastanówmy się przez chwilę, jak w prosty sposób możemy podejść do tematu organizacji logów naszego systemu. Jak wspomniałem wcześniej, istnieje duża szansa na to, że nasz system zostanie rozmieszczony na kilku (a nawet kilkuset) fizycznych maszynach. Co jeżeli, nie chcemy by zespół IT miał bezpośredni dostęp do poszczególnych maszyn? Możemy wtedy zorganizować sobie jedno miejsce, na które przekierujemy sobie nasze logi aplikacyjne, z danych serwerów i do niego dać dostęp zespołowi. Podejście to sprawdza się do pewnego momentu, niestety nie rozwiązuje ono problemu rozproszonych informacji, które dostarczają wartość przy ich całościowej analizie.

Z pomocą przychodzi ELK stack: Elasticsearch, Logstash, Kibana czyli zestaw narzędzi służący do przetwarzania logów aplikacyjnych oraz scentralizowanego zarządzania nimi. Na ELK składa się:

  • Elasticsearch – baza danych, w której zapisywane będą nasze logi, zapewnia ona szybki dostęp do interesujących nas informacji.
  • Logstash – narzędzie, do którego trafiają nasze logi z różnych maszyn w celu ich przetworzenia, wyciągnięcia z nich kluczowych dla nas informacji. Logstash komunikuje się z bazą danych w celu zapisu przetworzonych logów.
  • Kibana – narzędzie do wizualizacji danych pochodzących z bazy danych Elasticsearch

ELK jest wydawany pod jedną wspólną wersją, oznacza to, że np. używanie Elasticsearch w wersji 6.5 wymusza na nas by pozostałe narzędzia były oznaczone tym numerem wersji.

Przyjrzyjmy się najpierw narzędziu, które bezpośrednio będzie przetwarzać nasze logi, czyli Logstashowi. Logstash umożliwia stworzenie pewnego przepływu pracy, na podstawie którego logi, które do niego trafiają mogą być przetwarzane i transformowane w jednolity sposób. Udostępnia on zestaw funkcji oraz podstawowych instrukcji warunkowych przydatnych do rozpoznawania pewnych wzorców w naszych logach oraz wzbogacania ich o dodatkowe informacje.

Podstawowym plikiem konfiguracyjnym Logstasha jest plik logstash.conf. Zawiera on trzy podstawowe sekcje, które uzupełniamy interesującymi nas wyrażeniami.

input {}

filter {}

output {}

Sekcja input definiuje wejście do Logstasha. Udostępnia ona zestaw wtyczek, umożliwiających integrację z różnymi źródłami informacji, np

  • kafka – czyta zdarzenia z określonego topicu brokera komunikatów Kafka,
  • log4j – czyta dane bezpośrednio z aplikacji, w której skonfigurowane jest gniazdo TCP, przez które Log4J przesyła logi aplikacyjne,
  • file – służy do strumieniowania danych z pliku

Gdy mamy już skonfigurowany sposób wejścia danych, czas na ich przetworzenie. Podstawowe wtyczki dla tej sekcji filter to:

  • grok – bardzo przydatna wtyczka, służąca do parsowania logów i umieszczania ich w odpowiednie pola,
  • date – służy do parsowania dat, umieszczania ich w interesujących nas polach
  • mutate – przydatny do manipulowania polami, konwersją danych, usuwaniem zbędnych pól

Sekcja output, określa gdzie mają trafić nasze przetworzone dane, w naszym przypadku skorzystamy z wtyczki elasticsearch, w celu zapisu naszych danych w bazie.

Polecam zapoznanie się z poszczególnymi wtyczkami dla każdej z sekcji, ponieważ jest ich dużo i każda z nich jest bardzo interesująca:

Przykładowy plik konfiguracyjny może wyglądać w ten sposób:

input {

  file {

    path => “/var/log/application.log”

    start_position => "beginning"

  }

}

filter {

    grok {

    patterns_dir => ["./patterns"]

    match => { "message" => [

"%{TIMESTAMP_ISO8601:timestamp}%{SPACES}\[%{GREEDYDATA:thread}\]%{SPACES}%{WORD:level}%{SPACES}%{PACKAGE:package}%{SPACES}-%{SPACES}%{GREEDYDATA:log_message}"

         ]

}

    }

    date {

        match => [ "timestamp", "YYYY-MM-dd HH:mm:ss,SSS" ]

        target => "@timestamp"

        timezone => "Europe/Warsaw"

    }

    if [level] == "DEBUG" { drop{} }

    mutate {

remove_field => ["timestamp", "time", "host", "@version", "message", "thread"]

    }

}

output {

    elasticsearch {

        hosts => ["localhost:9200"]

    }

}

Powyższa konfiguracja powoduje czytanie z pliku application.log, opcja beginning oznacza, że chcemy czytać plik od początku. Następnie, plik jest filtrowany, funkcja match próbuje dopasować log do podanego wzorca (powyższa konfiguracja wskazuje poprzez parameter patterns_dir miejsce ze zdefiniowanymi, nazwanymi wzorcami), a następnie przekazuje wartości do odpowiednich pól (timestamp, thread, level, package itd). Chcemy, aby nasze logi trafiły do Elasticsearch z uzupełnioną data wystąpienia w aplikacji, służy do tego wtyczka date, której podajemy format daty oraz pole do którego ma zostać przekazana. Pole @timestamp jest domyślnie wykorzystywane przez Elasticsearch i Kibanę, w celu indeksowania i wyświetlania danych po czasie. Na końcu tej sekcji usuwamy niepotrzebne pola oraz wszystkie logi z poziomem DEBUG. W sekcji output, korzystamy z wtyczki elasticsearch, więc dane trafiają już bezpośrednio do bazy.

Ostatnią rzeczą jaką potrzebujemy jest uruchomienie Kibany oraz zdefiniowanie index pattern. Jeżeli poprawnie uruchomiliśmy wszystkie elementy ELK powinniśmy mieć do wyboru interesujące na indeksy Elasticsearch.

Wzorzec ustawiamy na logstash-*, przez co złapią się w niego wszystkie indeksy Elasticsearch, których nazwy rozpoczynają się od logstash-

Klikamy w przycisk Next step, następnie musimy wybrać pole, które będzie służyło do filtrowania naszych danych po czasie. W naszym przypadku jest to pole @timestamp

W tym momencie możemy rozpocząć przygodę z analizą naszych danych. W celu przeszukiwania logów po zdefiniowanych wcześniej polach, przechodzimy do zakładki Discover, w bocznym menu.

Zakładka ta pozwala na wyszukiwaniu danych, m.in poprzez definiowanie zakresu czasu, oraz wpisywaniu własnych zapytań.

Często zdarza się, że potrzebujemy skorzystać z przygotowanych wcześniej wizualizacji naszych danych. Aby przygotować takie wizualizacje, przechodzimy do zakładki Visualize. Mamy do wyboru szereg wykresów i narzędzi, które pomogą nam skorelować i zobrazować nasze dane. Do wyboru są między innymi wykresy typu line, heatmap, pie. Ciekawe jest narzędzie mapa, przydatne gdy mamy do czynienia z danymi typu IP, albo współrzędnymi geograficznymi.

Z gotowych wizualizacji możemy budować Dashboardy, zawierające interesujące nas informacje, co bardzo ułatwia analizę zachowania naszych usług.

Od wersji 6.4 Kibana dostarcza nam również narzędzi służących do uczenia maszynowego. Oferuje on wizualizatory pomagające zrozumienie istniejących danych oraz narzędzia analizujące nasze dane pod kątem występujących w nich anomalii. Narzędzie to przedstawimy w osobnym artykule.

Mateusz Morawski

SALESmanago o platforma Customer Engagement, zaprojektowana dla efektywnych i głodnych sukcesu zespołów marketingowych w eCommerce. Dla marketerów, którzy pragną być zaufanymi partnerami dla swoich CEO. Z naszego rozwiązania korzysta ponad 2000 biznesów online średniej wielkości w 50 krajach oraz liczne globalne marki takie jak Starbucks, Vodafone, Lacoste, New Balance czy Victoria's Secret.

SALESmanago zapewnia maksymalizację wzrostu przychodów oraz poprawy wskaźników KPI dla eCommerce wykorzystując trzy zasady: (1) Customer Intimacy, aby stworzyć autentyczne relacje z klientami w oparciu o dane Zero- i First-Party, (2) Precision Execution, aby zapewnić doskonałe omnichannelowe doświadczenie klienta dzięki hiper-personalizacji oraz (3) Growth Intelligence, która łączy wskazówki opracowane przez specjalistów oraz AI, umożliwiając pragmatyczne i szybkie podejmowanie decyzji w celu maksymalizacji efektu.

Czytaj więcej na: www.salesmanago.pl

30 trików i porad dotyczących korzystania z szablonów e-mail, które zostawią konkurencję w tyle.
30 trików i porad dotyczących korzystania z szablonów e-mail, które zostawią konkurencję w tyle.

    Jak prześcignąć konkurencję eCommerce za pomocą czegoś tak prostego jak szablony wiadomości e-mail? Chcemy czy nie, email marketing pozostaje potężnym narzędziem do angażowania klientów, zwiększania sprzedaży i ostatecznie – wyprzedzania konkurencji. Dzięki odpowiednim strategiom i dobrze opracowanym szablonom e-mailowym można skutecznie komunikować się z odbiorcami, budować trwałe relacje i zwiększać zyski.   Poniżej […]

Jak Pitbull West Coast Przełamał Konwencje z SALESmanago
Jak Pitbull West Coast Przełamał Konwencje z SALESmanago

  Pitbull West Coast stanęło przed wyzwaniem – jak wyróżnić się na zatłoczonym rynku i jeszcze bardziej zaangażować swoją społeczność? Odpowiedzią była współpraca z SALESmanago a zwrot z inwestycji (ROI) osiągnął 2947%   Pitbull West Coast to marka odzieżowa, zainspirowana kulturą uliczną i sportami walki. Budując swoją przewagę konkurencyjną i strategie zaangażowania społeczności, firma napotkała […]

Każdy procent ma znaczenie, czyli jak poprawić współczynnik konwersji w Twojej firmie
Każdy procent ma znaczenie, czyli jak poprawić współczynnik konwersji w Twojej firmie

    W coraz bardziej konkurencyjnym świecie eCommerce istnieją pewne nakazy i zakazy, jeśli chodzi o zachęcanie klientów do dokonywania zakupów w Twoim sklepie. Czynność ta nazywana jest konwersją i jest to najważniejszy wskaźnik, który musisz obserwować, planując budowanie swojej firmy i zwiększanie przychodów – w końcu sklep internetowy z milionami odwiedzających, który nie sprzedaje, […]

Kręcisz z AI? Pamiętaj, bezpieczeństwo zawsze na pierwszym miejscu!
Kręcisz z AI? Pamiętaj, bezpieczeństwo zawsze na pierwszym miejscu!

    W świecie, w którym technologia i handel coraz bardziej się przenikają, firmy eCommerce znalazły się na rozdrożu, szukając sposobu na romans z generatywną sztuczną inteligencją. Niedawno opublikowany raport Gartnera, zatytułowany „4 Ways Generative AI Will Impact CISOs and Their Teams”, dostarcza informacji na temat przyszłości cyberbezpieczeństwa w erze AI. Zatem, entuzjaści eCommerce, jeśli […]

Top 10 porażających statystyk dotyczących hipersegmentacji, które musisz znać
Top 10 porażających statystyk dotyczących hipersegmentacji, które musisz znać

    Segmentacja jest znana marketerom już od dłuższego czasu. Jednak w większości przypadków, przypomina raczej nieoszlifowany diament. Wraz z ciągłymi zmianami w technologii wykorzystywanej do zbierania danych, nowymi pokoleniami konsumentów, którzy wymagają wysoce spersonalizowanych treści oraz z ostatnimi zmianami w zachowaniach zakupowych, które spowodował COVID-19, aktualizacja sposobów segmentacji danych stała się kluczowa. Segmentowane kampanie […]

5 super zaawansowanych i turbo-skutecznych segmentacji dla eCommerce
5 super zaawansowanych i turbo-skutecznych segmentacji dla eCommerce

    Hipersegmentacja w eCommerce to trend, który ma szansę zdominować rynek na dłuższy czas. Segmentacja 1:1 pozwala tworzyć na masową skalę oferty dopasowane indywidualnie do każdego odbiorcy. Ma to wpływ na przychody w sklepie i CLV jego klientów. Jak konkretnie można zastosować hiperpersonalizację w różnych typach eCommerce? Oto 5 super zaawansowanych i turbo-skutecznych segmentacji. […]

Zerkamy w przyszłość: analityka predyktywna w SALESmanago
Zerkamy w przyszłość: analityka predyktywna w SALESmanago

    W stale ewoluującym świecie eCommerce, firmy nieustannie poszukują innowacyjnych sposobów na zwiększenie swojej przewagi konkurencyjnej. Trudno przecenić tu rolę analityki predyktywnej. Jej wieloaspektowość ma kluczowe znaczenie dla rozwoju i sukcesu branży.   Szklana kula dla marketingowców   Analityka predyktywna to gałąź analityki danych, która wykorzystuje dane historyczne, algorytmy statystyczne oraz technologię uczenia maszynowego […]

[NAGRANIE WEBINARU] „Przygotuj swój eCommerce na 2024 rok: Doświadczenia z 2023 roku, najważniejsze trendy i innowacje technologiczne dla sklepów internetowych”
[NAGRANIE WEBINARU] „Przygotuj swój eCommerce na 2024 rok: Doświadczenia z 2023 roku, najważniejsze trendy i innowacje technologiczne dla sklepów internetowych”

    Już teraz możesz obejrzeć nagranie naszego ostatniego webinaru, poprowadzonego przez Director Solutions Consulting w SALESmanago, Aleksandra Skałkę.    Kliknij i odkryj:   – Taktyki wdrożone przez najlepiej prosperujące firmy eCommerce w 2023 r. – Najważniejsze trendy w eCommerce na lata 2023/2024: Sztuczna inteligencja, prywatność danych, dane stron zerowych i inne. – Nowe technologie […]

[Nowa funkcjonalność] Kreaktor Importu Kontaktów: funkcjonalna baza kontaktów bez komplikacji
[Nowa funkcjonalność] Kreaktor Importu Kontaktów: funkcjonalna baza kontaktów bez komplikacji

Przedstawiamy Kreator Importu Kontaktów: płynny początek przygody z CDP. Importuj kontakty bez wysiłku dzięki innowacyjnemu mapowaniu i mechanizmom odpornym na błędy. Przekształć surowe dane w dostosowaną do twoich potrzeb, funkcjonalną bazę danych. Uzyskaj niezależność od IT i zoptymalizuj działania marketingowe. Szybko importuj, oznaczaj i poprawiaj dane, aby uzyskać ponadprzeciętne wyniki.