Globalne zagadnienia dotyczące zarządzania środowiskowego i środowiskowego są monitorowanie środowiskowe środowiskowe i analityczne. Technologia monitorowania informacyjna i analityczna

Informacje i system analityczny CPP "Analiza monitorowania" umożliwia monitorowanie procesu odprawa celna W zakresie nomenklatury, koszty, ciężary są wydawane towary, naliczanie płatności celnych.

"Analiza monitorowania" wdraża proces integracji dla różnych źródeł informacji (baza danych GTD, DB TP NSI, BD Eugruck, EGRN BD), a kolejne stosowane zgromadzone (zagregowane) dane do tworzenia różnych raportów i odniesień.

"Analiza monitorowania" wykonuje następujące funkcje:

- zapewnienie dostępu do CBD GTD, a także CBD zleceniami celnymi (TPO);

- zapewnienie możliwości tworzenia i edycji warunków ograniczających próbkę danych z CBD GTD;

- informacje wizualne i informacje o raporcie wyjściowym;

- Dostosowanie otrzymanych raportów w programie Microsoft Excel.

Informacje na temat działalności organów celnych w dziedzinie odprawy celnej GTD na "analizę monitorowania" przedstawiono w różnych kryteriach, w tym:

- koszt, waga i nomenklatura wyemitowanych towarów;

- naliczone płatności;

- kraj pochodzenia i kraj kierunku przeniesionych towarów;

- Uczestnicy odprawy celnej (organy celne, inspektorów celnych, uczestnicy WAD);

- Dynamika procesów odprawy celnej.

"Analiza monitorowania" umożliwia otrzymanie zarówno ogólnych danych odprawy celnej towarów, jak i szczegółowych informacji na temat każdego z uczestników VED, konkretnego magazynu i inspektora celnego.

Dodatkowo, "analiza monitorowania" zapewnia możliwość dostępu (analizy i kontroli) do procesów dostawy towarów pod kontrolą celną.

Analiza monitorowania "ma wyraźną strukturę trzech poziomów. Użytkownik (przez dyrygent internetowy) wysyła żądanie do serwera WWW. Serwer WWW przekazuje żądanie do Oracle DBMS. DBMS przetwarza żądanie i zwraca serwer WWW.

Serwer WWW z kolei konwertuje odebrane dane na stronę HTML i zwraca wynik do użytkownika. Dlatego wszystkie aktualizacje oprogramowania "Monitoring Analiza" pojawiają się na serwerze WWW i w Oracle DBMS. Zmiany w oprogramowaniu odpowiednio stają się dostępne dla użytkownika.

- CBD TPO - monitorowanie procesów odprawy celnej TPPO na TPO CDD;

- CBD DKD - monitorowanie procesów dostawy przez kontrolę celną (dostęp do DB Dostawa-CDD);

- Szukaj przez EGRN, radość - wyszukanie informacji o podmiotach prawnych - uczestnicy procesów odprawy celnej.

3. Informacje ogólne dotyczące AC Adpr "Analiza-2000

W bazie danych EAIS FCS Rosji traktowane ogromne ilości informacji na temat różnych aspektów działań celnych są przechowywane, w tym elektroniczne kopie deklaracji Celgo Customs (GTD) i Customs Customal Customal Orders (wydane przez organy celne Rosji, od 1991), Wskaźniki wzrostu bazy danych wynoszą średnio 600 tysięcy rekordów na kwartał (około 2,5 miliona rocznie). Ta tablica danych zawiera najcenniejsze informacje na temat zagranicznej działalności gospodarczej Rosji.

Znaczne ilości informacji na temat zagranicznej działalności gospodarczej Rosji wymagają skutecznych narzędzi do przetwarzania w celu zapewnienia procesów decyzyjnych zarządzania celnymi.

Pierwszym krokiem w tworzeniu pełnego skalowego systemu wsparcia podejmowania decyzji (SPRD) poziomu korporacyjnego była przetwarzaniem systemu operacyjnej wielowymiarowej analizy danych danych elektronicznych kopii celnych, który zapewnia nowy poziom analizy danych i non - do analizy statystycznej wskaźników wydajności.

Systemowa tisomizacja systemu Analytics-2000:

- Redukcja czasu i kosztów pracy potrzebnych do uzyskania zagregowanych informacji;

- zwiększona wydajność pracy FCS;

- poprawa jakości danych analitycznych wydanych na wniosek wyższych organizacji;

- zapewnienie możliwości przywództwa i średnich menedżerów, a także analityków do nawigacji w ogromnych ilościach danych i wybrać informacje niezbędne do podejmowania decyzji;

- Zapewnienie graficznej reprezentacji danych.


Analityczna kontrola jakości otaczający Składa się z następujących etapów:

1. Wybierz miejsce wyboru próbki;

2. Próbowanie;

3. Przetwarzanie próbek;

4. Pomiar stężenia zanieczyszczenia;

5. Przetwarzanie danych matematycznych i weryfikacja;

6. Interpretacja i porównanie uzyskanych danych.

Dla wybór próbkowania (gazowy, ciecz, stały) należy uznać czynniki: geograficzne, geologiczne i funkcje środowiskowe. Dystrykt, charakter dystrybucji zanieczyszczeń w czasie i przestrzeni, warunkach meteorologicznych i hydrologicznych.

Możesz "przykryć" studiowany obszar siatki z odpowiednią skalą krokową i pobierać próbki we wszystkich punktach węzłowych. W innych przypadkach można wykonać próbki w charakterystycznych miejscach o różnych oczekiwanych zanieczyszczeniach. Liczba punktów pobierania próbek na tym terytorium zależy od możliwości technicznych i gospodarczych stacji lub stanowiska.

Dla próbowanie Konieczne jest uzyskanie statystycznie uśrednionej próbki, która jest najłatwiej osiągnięta, gdy wybrana jest próbka cieczy. Uzyskanie statystycznie uśrednionej próbki gleby lub biotycznej jest pobierana przez serię próbek w różnych punktach, a następnie uśrednianie mechaniczne w młynie kulowym lub rozpuszczającym w kwasach. Próbka analityczna pewnej masy wybiera się z uzyskanego materiału. Statystycznie uśredniona próbka powietrza można uzyskać przez pompowanie dużych woluminów przez specjalne filtry lub absorbery cieczy, a następnie pochylając wchłoniętą zanieczyszczenie ze specjalnym rozwiązaniem.

Leczenie próby Można go przeprowadzić natychmiast po wyborze. Jeśli zakładano przechowywanie lub transport, utrata zanieczyszczenia powinna być brana pod uwagę z powodu adsorpcji na ścianach naczynia, sedymentacji cząstek lub reakcji chemicznych. Najbardziej odpowiednim jest dania z polietylenu lub teflonu. Test cieczy jest wylewany "pod wtyczką". Solidne próbki są również izolowane z kontaktów z powietrzem. Inne typy leczenia próbki są związane z koncentracją i oddzieleniem zanieczyszczeń, które zwykle są wykonywane w specjalnym laboratorium.

Etap "Pomiary" Jest to analityczne określenie stężenia zanieczyszczenia, w tym wybór sposobu analizy, wytwarzanie próbki zgodnie z propagowaniem sposobu, kalibracji instrumentów, testowanie metody przy użyciu standardów, przeprowadzania eksperymentów bezczynności.

Podczas monitorowania, stosować standardowe lub ogólnie przyjęte metody analizy międzynarodowej lub departamentów.

Poprzednie materiały:

Page 31 z 45

Ekologiczne i analityczne monitorowanie środowiska.

Monitorowanie ekologiczne i analityczne - monitorowanie zawartości zanieczyszczeń w wodzie, powietrze i glebie przy użyciu fizycznych, chemicznych i fizykochemicznych metod analizy - pozwala wykryć przepływ zanieczyszczeń w środowisku, w celu ustalenia wpływu czynników antropogenicznych na tle naturalnego i optymalizacji interakcji człowieka Natura. Więc, monitorowanie glebyprzewiduje określenie kwasowości, zasolenia gleby i utraty humusa.

Monitorowanie chemiczne -częścią analitycznego analitycznego jest systemem obserwacji składu chemicznego atmosfery, opadów, powierzchni i wód gruntowych, oceanów i mórz, gleb, osadów dolnych, roślinności, zwierząt i kontroli nad dynamiką propagacji zanieczyszczeń chemicznych. Jego zadaniem jest określenie rzeczywistego poziomu zanieczyszczenia środowiska przez wysoce toksyczne składniki; Cel - wsparcie naukowe i techniczne systemu obserwacji i prognoz; Identyfikacja źródeł i czynników zanieczyszczeń, a także ich stopień wpływu; Obserwowanie ustalonych źródeł zanieczyszczeń w środowisku naturalnym i poziom jego zanieczyszczenia; Ocena rzeczywistych zanieczyszczeń środowiska naturalnego; Prognoza dla zanieczyszczenia środowiska i sposobów na poprawę sytuacji.

Taki system opiera się na danych sektorowych i regionalnych, obejmuje elementy tych podsystemów; Może objąć obie lokalne obszary w jednym stanie (Monitorowanie krajowe)więc ja. Ziemia ogólnie (Globalny monitoring).

Ekologiczne i analityczne monitorowanie zanieczyszczeń składających się z jednolitego systemu monitorowania środowiska.W celu radykalnego zwiększenia wydajności pracy nad ochroną i poprawą środowiska, zapewniając bezpieczeństwo środowiskowe 24 listopada 1993 r., Dekret rządowy został przyjęty Federacja Rosyjska № 1229 "na temat stworzenia jednolitego systemu monitorowania środowiska" (Essem). Organizacja pracy nad stworzeniem HSEM przewiduje włączenie do zakresu nowych rodzajów i rodzajów zanieczyszczeń i identyfikacji ich wpływu na środowisko; Rozszerzając geografię monitorowania środowiskowego kosztem nowych terytoriów i źródeł zanieczyszczeń.

Główne zadania HSEMM:

- rozwój programów monitorowania środowiska w Rosji, w poszczególnych regionach i dzielnicach;

- organizacja obserwacji i pomiarów wskaźników obiektów monitorowania środowiska;

- dokładność i porównywalność danych obserwacyjnych zarówno w oddzielnych regionach, jak i dzielnicach oraz w całej Rosji;

- gromadzenie i przetwarzanie danych obserwacyjnych;

- przechowywanie danych obserwacyjnych, tworzenie specjalnych banków danych charakteryzujących sytuację środowiskową w Rosji iw oddzielnych obszarach;

- harmonizacja banków i podstaw informacji o środowisku z międzynarodowymi systemami informacji o środowisku;

- ocena i prognozę stanu obiektów środowiskowych i skutków antropogenicznych na nich, zasoby naturalne, odpowiedzi na ekosystemy i zdrowie publiczne do zmiany stanu siedliska ludzkiego;

- prowadzenie kontroli operacyjnej i precyzyjne pomiary zanieczyszczenia radioaktywnego i chemicznego w wyniku wypadków i katastrof, a także prognozowanie sytuacji środowiskowej i oceniać szkody spowodowane środowiskiem naturalnym;

- dostępność zintegrowanych informacji o środowisku w szerokim zakresie konsumentów, ruchów społecznych i organizacji;

- informowanie władz o stan środowiska i zasobów naturalnych, bezpieczeństwo środowiska;

- Rozwój i wdrożenie zunifikowanej polityki naukowej i technicznej w dziedzinie monitorowania środowiska.

ESMEM zapewnia tworzenie dwóch ze sobą bloków: monitorowanie zanieczyszczenia ekosystemu i monitorowanie konsekwencji środowiskowych takich zanieczyszczeń. Ponadto powinien dostarczyć informacje na temat źródła (podstawowego) stanu biosfery, a także identyfikację zmian antropogenicznych na tle naturalnej zmienności naturalnej.

Obecnie obserwacje poziomów zanieczyszczenia atmosfery, gleby, wód i osadów dolnych rzek, jezior, zbiorników i mórz w fizycznych, chemicznych i hydrobiologicznych (do wodnych (do wodnych organów) są przeprowadzane przez usługi rosywowe. Monitorowanie źródeł wpływu antropogenicznego na środowisko naturalne i strefy ich bezpośredniego wpływu na świat i warzyw, fauny naziemnej i flory (z wyjątkiem lasów) są odpowiednimi usługami Ministerstwa Ziemi. Monitorowanie gruntów, środowisko geologiczne i wód gruntowych przeprowadza się przez podziały Komitetu Federacji Rosyjskiej w sprawie zasobów gruntowych i zarządzania gruntami oraz Komitetu Federacji Rosyjskiej na temat geologii i stosowania podglebia.

W 2000 r. Uruchomiono 150 laboratoriów chemicznych w systemie Roshydromet, 41 laboratorium buszu do analizy próbek powietrza w 89 miastach z kontroli nieregularnej. Obserwacje zanieczyszczenia atmosfery przeprowadzono na 682 posty szpansii w 248 miastach i miastach Federacji Rosyjskiej, bez uwagi bez uwagi na gruntach rolnych.

Wody powierzchniowe Sushi są kontrolowane w 1175 ciekawach wodnych i 151 zbiornikach. Próbkowanie przeprowadza się w 1892 punktach (2604 trzpienia). W 2000 r. Przeanalizowano 30 000 próbek wody przez 113 wskaźników. Punkty obserwacji zanieczyszczenia środowiska morskiego istnieją na 11 morzach, które myją terytorium Federacji Rosyjskiej. W systemie Roshydrometu rocznie analizuje więcej niż 3000 próbek w 12 wskaźnikach.

Sieć stacji obserwacji transgranicznego transferu zanieczyszczeń koncentruje się na zachodniej granicy Rosji. Obecnie działają tutaj stacje Puszkin i Stacje Pinega, które są próbkowania aerozolami atmosferycznymi, gazami i opadami.

Kontrola dla skład chemiczny i kwasowość opadów atmosferycznych przeprowadza się na 147 stacjach poziomu federalnego i regionalnego. W większości próbek mierzy się tylko wartość pH. Podczas śledzenia zanieczyszczenia pokrywy śniegu w próbkach, jonów amonu, siarczanów, benz (a) pyrenu i metali ciężkich są również określone.

System monitorowania tła atmosferycznego obejmuje trzy rodzaje stacji: podstawowe, regionalne i regionalne z rozszerzonym programem.

Stworzono również sześć zintegrowanych stacji monitorujących tła, które znajdują się w rezerwach biosfery: Barguzinsky, Central Forest, Voronezh, Priksko-taras, Astrachan i Kaukaski.

W przypadku monitorowania promieniowania w kraju, zwłaszcza w obszarach zanieczyszczonych w wyniku wypadku w katastrofach w Czarnobylu i innych katastrofach promieniowania, użyj sieci stacjonarnej i środków mobilnych. Według specjalnego programu Aerogamaker jest również prowadzony przez terytorium Federacji Rosyjskiej.

W ramach ESSEM system wykrywania operacyjnego zanieczyszczenia związanego z sytuacje awaryjne.

Ekologiczne i analityczne monitorowanie zanieczyszczeń złożonych z HSEMM można podzielić na trzy duże bloki: kontrola zanieczyszczeń w strefach znacznego wpływu antropogenicznego na poziomie regionalnym, na poziomie tła.

Wszystkie dane ze stref z dowolnym poziomem ekspozycji, zarówno w nagłych przypadkach, jak i uogólnionej, w określonych przedziałach czasu są zapisywane do centrum gromadzenia i przetwarzania informacji. W przypadku automatycznego systemu, który obecnie się rozwija, głównym krokiem jest system lokalny obsługujący osobny obszar lub miasto.

Informacje o stacjach mobilnych i laboratoriów stacjonarnych w zakresie zanieczyszczenia środowiska przez dioksyny i związki związane są przetwarzane, posortowane i przekazywane do następnego poziomu - do regionalnego centra informacyjne.. Następujące dane są wysyłane do zainteresowanych organizacji. Trzeci poziom systemu jest głównym centrum danych, w których informacje o zanieczyszczeniu kraju są uogólnione na skali kraju.

Wydajność automatycznych systemów przetwarzania dla informacji ekologicznych i analitycznych jest zauważalnie rośnie przy użyciu automatycznych stacji do sterowania zanieczyszczeniem wody i powietrza. Lokalne automatyczne systemy sterowania zanieczyszczenia powietrza są zaprojektowane w Moskwie, Petersburgu, Chelyabinsk, Nizhny Novgorod., Sterlitamak, UFA i inne miasta. Doświadczeni badania zautomatyzowanych stacji kontroli prowadzone są w jakości wody w wylotach wodnych i miejscach wlotu wody. Utworzono instrumenty do ciągłego oznaczania tlenków azotu, siarki i węgla, ozonu, amoniaku, chloru i lotnych węglowodorów. Na zautomatyzowanych stacjach kontrolujących zanieczyszczenie wody, temperatura, pH, przewodność elektryczna, zawartość tlenu, jony chlorowe, fluor, miedź, azotany itp.

Informacje i analityczna jednostka monitorująca wykonuje swoją podstawową funkcję, ponieważ do przyjmowania świadomych decyzji zarządzania, odpowiednie organy są ważną analizą i oceną państwa obiektu oraz dynamika jego działalności. Skuteczne informacje i wsparcie analityczne do rozwiązywania niezbędnych zadań jest w stanie zapewnić systemy do automatyzacji działań analitycznych specjalistów organów zarządzających, organizują procesy zbierania, przechowywania i przetwarzania informacji. Koncepcja tego rodzaju systemów do szerokiej klasy zarządzanych obiektów powinna być oparta na nowoczesna technologia Zintegrowane magazyny danych i dogłębne przetwarzanie analityczne zgromadzonych informacji na podstawie nowoczesnych technologii informacyjnych.

Jak już zauważono, tradycyjne i ogólnie akceptowane źródła podstawowych informacji są sprawozdawczości statystyczną, rachunkowość rachunkowości i zarządzania, sprawozdania finansowe, ankiety, wywiady, ankiety itp.

Etap analitycznych i statystycznych przetwarzania strukturalnych informacji podstawowych jest również kilka tradycyjnych ogólnie przyjętych podejść. Pojawienie się tych podejść i integracji ogólnoustrojowej z nich było ze względu na obiektywną potrzebę automatyzacji prac księgowych i statystycznych w celu jak największego, jakościowego i terminowego odzwierciedlenia procesów występujących w analizowanym obszarze tematycznym, a także identyfikując ich charakterystykę trendy.

Automatyzacja prac statystycznych znalazła odzwierciedlenie w tworzeniu i funkcjonowaniu zautomatyzowanych statystycznych systemy informacyjne.: W latach 70. - zautomatyzowany system statystyczny (ASDS), a od 1988 r. - w projekcie pojedynczego statystycznego systemu informacyjnego (ESIS). Głównym zadaniem tych wydarzeń było zbieranie i przetwarzanie informacji księgowych i statystycznych niezbędnych do planowania i zarządzania gospodarką narodową na podstawie powszechnego wykorzystania metod statystycznych gospodarczych, funduszy technik obliczeniowych i organizacyjnych, systemów komunikacyjnych w państwowych organach statystycznych.

W strukturalno-terytorialnym aspekcie ASDS był ściśle hierarchiczny, miał cztery poziomy: Allied, Republican, Regional, District (Urban). Na każdym poziomie przetwarzania informacji przeprowadzono w celu wdrożenia zadań przede wszystkim z tego poziomu.

W aspekcie funkcjonalnym ASDS przydzielają podsystemy funkcjonalne i bezpieczeństwa. Te podsystemy, niezależnie od treści określonych zadań statystycznych, wdrożyły funkcje gromadzenia i przetwarzania informacji statystycznych, kompleksowej analizy statystycznej, kontrolując wydajność wskaźników, uzyskując dane statystyczne niezbędne do planowania bieżącego i operacyjnego, terminowe składanie organów zarządzających wszystkie niezbędne statystyki. Z punktu widzenia użytkownika zadania monitorowania w ich przeznaczeniu są podzielone na:

przepisy dotyczące przetwarzania danych raportowania statystycznego na odpowiednich poziomach strukturalnych i terytorialnych ASDS;

zadania usług informacyjnych i referencyjnych; Cele dogłębnej analizy ekonomicznej.

Zadania regulacyjne związane z przetwarzaniem danych raportowania statystycznego na poziomach ASDS. Każde zadanie regulacyjne jest z reguły wiąże się z przetwarzaniem danych niektórych konkretnej formy sprawozdawczości statystycznej lub kilku, ściśle powiązanych form raportowania. Rozwiązanie takich zadań przeprowadza się przez kompleksy elektronicznego przetwarzania informacji, które są kombinacją oprogramowania, narzędzi technicznych i organizacyjnych przy użyciu lokalnych tablic informacji.

Zadania usług informacyjnych i referencyjnych zapewniają tworzenie niezbędnych danych statystycznych na wnioski dotyczące monitowania raportów, notatek analitycznych i odniesień, nie są regulowane przez treść. Ich rozwiązania są zapewnione za pomocą zautomatyzowanego banku danych w postaci systemu nagromadzenia, przechowywania, wyszukiwania, przetwarzania i wydawania informacji na żądaniach użytkownika w odpowiednim formularzu.

Zadania dogłębnej analizy ekonomicznej opiera się na użyciu:

seria dynamiczna (budowa wielokątów, histogramów częstotliwości i linii skumulowanych, wybór tendencji z wybranej klasy funkcji);

wygładzanie oryginalnej serii dynamicznej, diagnostyki na podstawie wybranego trendu i modelu autoregresji, analizy pozostałości na autokorelacji i normalnym)

regresja pary (definicja równań regresji liniowych i nieliniowych, ocena ich charakterystyki statystycznej, wybór optymalnej formy komunikacji);

regresja wielokrotna (określenie matrycy sparowanych współczynników korelacji, określając równania wielokrotnej regresji liniowej),

analiza czynnika (uzyskanie modelu liniowego jest opisany przez niewielką liczbę czynników, obliczenie wartości "obciążeń dla czynników ogólnych" i najczęstszych czynników, graficznej interpretacji czynników na płaszczyźnie i przestrzeni);

analiza korelacji (uzyskanie matryc korelacji, odchylenia średnie i standardowe).

Organizacyjna i technologiczna forma rozwiązywania tej klasy zadań - kompleksy analityczne, które są zestawem pakietów programów aplikacji koncentrowały się na realizacji matematycznych metod statystycznych. Aby osiągnąć szerokie zakresy przeanalizowanych danych, forma rejestru monitorowania jest stosowana w oparciu o zautomatyzowanych rejestrach, umożliwiająca utrzymanie i przetwarzanie znaczących zestawów zorganizowanych danych

w postaci tablic niezależnych od struktury raportów statystycznych dla każdego obiektu lub określonej grupy obiektów monitorujących. Formularz monitorowania rejestru jest szczególnie skuteczny dla informacji statystycznych charakteryzujących stosunkowo zrównoważonych obiektów, więc rejestry można uznać za zautomatyzowany plik kart grup grup jednorodnych jednostek statystycznych obserwacji określonego typu. Jego aplikacja umożliwia użytkownikowi wypełnienie ujednoliconego formularza żądania, aby uzyskać różne dane charakteryzujące stan konkretnego obiektu.

Ważnym kierunkiem poprawy monitorowania statystycznego było zwiększenie treści, dokładności i wydajności danych raportowania na podstawie kombinacji raportowania bieżącego, jednorazowej księgowości, badań selektywnych i monograficznych, a także optymalizacji przepływów informacyjnych. Szczególny nacisk kładzie się na poprawę metod gospodarczych i matematycznych do analizy i przewidywania rozwoju systemów. Ponadto wykorzystanie nowych technologii informacyjnych było niezbędne w ewolucji metod monitorowania, a mianowicie:

opracowanie zintegrowanej technologii przetwarzania informacji podczas korzystania z banków danych i sieci komputerowych;

tworzenie systemów przetwarzania danych symulacyjnych komputerowych;

rozwój intelektualizowanych typów interfejsu użytkownika końcowego z komputerem na podstawie zautomatyzowanych miejsc pracy zapewniających korzystanie z systemów ekspertów.

Nowy technologia informacyjna Znacznie rozszerzył możliwość bezpośredniego zautomatyzowanego dostępu do niezbędnych informacji statystycznych, zróżnicowaną kompozycję i treść prac analitycznych. Możliwość integracji pojedynczego statystycznego systemu informacyjnego do monitorowania z innymi systemami informacyjnymi wszystkich poziomów kanałów kontrolnych wiązań telekomunikacyjnych.

Jednak wszystkie rozważane metody przetwarzania danych analitycznych i statystycznych mają znaczącą wadę. Cały zestaw danych jest w nich przetwarzany jako rozrzucony zestaw, dzięki czemu brakuje ich ogólnoustrojowej jedności. Tymczasem tylko sztuczna komunikacja może być zainstalowana przez połączenie ich w określony formularz raportowania. Jednak niemożliwe jest zapewnienie wszystkich form dla wszystkich możliwych zjawisk i połączeń. Tradycyjne metody przetwarzania danych analitycznych i statystycznych nie uwzględniają, że istnieje naturalne połączenie między każdym rodzajem zjawisk i zdarzeń, na podstawie uniwersalnych wskaźników wskaźników. W obecności systemu takiego naturalnego

stosunki wydaje się porównywać z rozważanym zjawiskiem wszystkimi czynnikami, wydarzeniami, danymi. Monitorowanie na podstawie takiego podejścia charakteryzuje się pełnym zasięgiem przyczynowych stosunków wzajemnego wpływu ukrytych trendów. Wszystko to jest rozpatrywane w nierozłącznej jedności systemowej.

Określona wada można wyeliminować dzięki bardzo powszechnym podejściu do problemu przetwarzania danych analitycznych i statystycznych opartych na najnowszej technologii OLAP - przetwarzanie analityczne online (analiza danych operacyjnych).

Termin OLAP określa metody, które umożliwiają użytkownikom bazy danych w czasie rzeczywistym generować informacje opisowe i porównawcze i otrzymują odpowiedzi na różne pytania analityczne. Definiujące zasady koncepcji OLAP obejmują:

wielowymiarowa reprezentacja konceptualna - baza danych OLAP musi obsługiwać wielowymiarową prezentację danych, zapewnia klasyczne operacje partycjonowania i obracania kostki danych koncepcyjnej;

przejrzystość - użytkownicy nie muszą wiedzieć, że używają bazy danych OLAP. Aby uzyskać dane i zaakceptować niezbędne rozwiązania, mogą używać dobrze znanych narzędzi. Nie muszą także wiedzieć nic o źródle danych;

dostępność - Oprogramowanie musi wybrać i komunikować się z najlepszymi, aby utworzyć odpowiedź na to żądanie źródła danych. Muszą zapewnić automatyczne wyświetlanie własnego schematu logiki w różnych heterogenicznych źródeł danych;

uzgodniono produktywność - wydajność praktycznie nie powinna zależeć od liczby pomiarów w zapytaniu. Modele systemowe muszą być wystarczająco silne, aby poradzić sobie ze wszystkimi zmianami w rozważanym modelu;

obsługa architektury klient-serwer - narzędzia OLAP musi być w stanie pracować w środowisku klient-serwer, ponieważ zakłada się, że wielowymiarowy serwer bazy danych musi być dostępny z innych programów i narzędzi;

równość wszystkich pomiarów - każdy pomiar danych musi być równoważny zarówno w strukturze, jak i na możliwościach operacyjnych. Główna struktura danych, formuły i formaty raportu nie powinny być prowadzone przez jakiś pomiar danych;

dynamiczne przetwarzanie matryc - typowe wielowymiarowe modele mogą łatwo uzyskać dostęp do dużego zestawu

linki do ogniw, z których wiele nie ma danych w określonym punkcie. Te brakujące wartości powinny być skutecznie przechowywane i nie podejmować negatywnego wpływu na dokładność lub szybkość ekstrakcji informacji;

wsparcie dla wielu narzędzi korodrujnych - OLAP musi wspierać i zachęcać do pracy w grupach i dzielenia się pomysłami i analizami wyników między użytkownikami. Aby to zrobić, bardzo ważne jest, aby mieć dostęp do danych wieloosobowych;

operacje wsparcia między różnymi pomiarami. Wszystkie wielowymiarowe operacje (na przykład agregację) powinny być określone i dostępne w taki sposób, że są one wykonywane jednolicie i konsekwentnie, niezależnie od liczby pomiarów;

intuicyjne zarządzanie danymi - Dane dostarczone użytkownikowi analityczne muszą zawierać wszystkie informacje niezbędne do skutecznej nawigacji (sekcje cięcia, zmiany poziomu informacji o szczegółach) i wykonują odpowiednie wnioski;

elastyczne raportowanie - Użytkownik ma możliwość wyodrębnienia wszelkich potrzeb potrzebujących i tworzą je w dowolnej niezbędnej formie;

nieograniczone pomiary i poziomy agregacji - nie powinno być żadnych ograniczeń na liczbie obsługiwanych pomiarów.

Korzystanie z systemów opartych na technologii OLAP umożliwia:

zorganizować pojedyncze przechowywanie informacji na podstawie statystycznych i innych danych raportowania;

zapewnij prosty i wydajny dostęp do informacji o przechowywaniu przy rozgraniczeniu praw dostępu

zapewnić możliwość operacyjnego przetwarzania analitycznego przechowywanych danych, analizy statystycznej;

sortuj, Standaryzuj i automatyzuj utworzenie form raportów analitycznych z wyświetlaniem danych w danej formie.

Główną cechą wyróżniającą i ważną zaletą wielowymiarowej prezentacji danych w porównaniu z tradycyjnymi technikami informacyjnymi jest możliwość wspólnej analizy. duże grupy Parametry w zakresie wzajemnej komunikacji, która jest ważna podczas studiowania złożonych zjawisk.

Technologia OLAP znacznie zmniejsza czas gromadzenia i analizowania podstawowych informacji niezbędnych do podejmowania decyzji w jednej lub innej kulach działalności człowieka, a także zwiększa widoczność i informację o sprawozdaniu z procesów i zjawisk występujących w tych obszarach.

Systemy OLAP umożliwiają gromadzenie dużych ilości danych zebranych z różnych źródeł. Takie informacje są zwykle

Przed utworzeniem takiego systemu należy rozważyć i dowiedzieć się trzy główne pytania:

gromadzą się dane i zarówno na poziomie koncepcyjnym, aby symulować dane i zarządzać ich konserwacją; Jak analizować dane;

jak skutecznie pobierać dane z kilku niezależnych źródeł.

Pytania te mogą być skorelowane z trzema głównymi składnikami systemu wspomagania decyzji: serwer magazynu danych, narzędzia do przetwarzania danych operacyjnych i narzędzi do uzupełniania sklepu danych.

Ponieważ organizacja magazynów informacyjnych jest przedmiotem innych dyscyplin, rozważ tylko kwestię przetwarzania danych analitycznych. Obecnie istnieje wiele narzędzi OLAP, które można wykorzystać do analizy informacji. Są to produkty oprogramowania, takie jak mikrosstrategia 7, a webintelligence, Cognos PowerPlay, Alphablox. Przeglądamy określone produkty na podstawie następujących kryteriów:

Łatwość obsługi - Produkt oprogramowania musi być wystarczająco prosty dla użytkownika, który nie ma specjalnego szkolenia;

interaktywność - Oprogramowanie musi wdrożyć interaktywne możliwości, w tym: przeglądanie dokumentów, dynamiczne aktualizowanie dostępnych dokumentów, zapewnia dostęp do najnowszych informacji, dynamiczne wykonywanie żądań do źródeł danych, dynamiczne nieograniczone "pogłębienie danych";

funkcjonalność - Aplikacja musi zapewnić te same możliwości, co tradycyjne analogi klienta / serwera;

dostępność - informacje muszą być dostępne dla dowolnego urządzenia i miejsca pracy, a część klienta ma być niewielka, aby spełnić różne poziomy przepustowości sieci użytkownika i odpowiadać na standardową technologię;

architektura jest kryterium charakteryzuje aspekty wdrażania oprogramowania produktu;

niezależność od źródeł danych - aplikacja musi zapewnić dostęp do dowolnego rodzaju dokumentów i zapewnić interaktywny dostęp do danych relacyjnych i wielowymiarowych,

wydajność i skalowalność - Aby zapewnić wydajność i skalowalność aplikacji, konieczne jest wdrożenie możliwości uniwersalnego dostępu do baz danych, możliwość buforowania serwera danych i tym podobnych;

bezpieczeństwo - aspekty administracji aplikacji zapewniając różne prawa dostępu do różnych kategorii użytkowników;

koszt wdrożenia i administracji - koszt wdrożenia produktu OLAP na Użytkownik powinien być znacznie niższy niż dla tradycyjnych produktów.

Mikroprostaż 7 I. : - Produkty oprogramowania z szeroką gamą funkcji zbudowanych na ujednoliconej architekturze serwera. Środa użytkownika jest wdrażana w profesjonalistom internetowym Strategi.

Użytkownicy oferują szereg funkcji statystycznych, finansowych i matematycznych do zintegrowanej analizy OLAP i relacyjnej. Wszyscy użytkownicy zapewniają dostęp do zagregowanych i szczegółowych informacji (na poziomie transakcji). Można wykonać nowe obliczenia, filtrować dane raportu, obróć i dodać pośrednie wartości podsumowujące, szybko zmienić zawartość raportu.

Główna funkcjonalność osiąga się kosztem następujących funduszy:

Microsstreate 7 i Usługi OLAP - interfejs do produktów innych firm;

inteligentna technologia Cube - upraszcza analizę i wdrażanie, dostarczanie informacji podsumowujących do szybkiego przeglądania w trybie interaktywnym;

Microsstategi LOVCASTER - Daje użytkownikom możliwość wysyłania wskaźników lub zapłacić je za pośrednictwem interfejsu internetowego. Użytkownicy mogą wysyłać swoje raporty, aby wysłać swoje raporty, aby zaplanować raporty, publikować je do grup roboczych i eksportować do formatów Excel, PDF lub HTML.

Ten produkt zapewnia wsparcie i integrację między platformą, przenośnością w UNIX, obsługa serwerów aplikacji innych firm.

Produkt opiera się na architekturze XML. Użytkownicy mogą zintegrować kod XML utworzony w Internecie Microsstategi do swoich aplikacji lub formatować go we właściwy sposób.

Cienki klient zaimplementowany w formacie HTML eliminuje problemy z kompatybilnością z przeglądarkami, rozwija się przez wszystkie narzędzia bezpieczeństwa sieci. Widok i funkcje programu można skonfigurować do specyficznych potrzeb. Możesz osadzić Internet mikrocrategi do innych aplikacji działających w sieci.

Komputery, na których prace internetowe Microsstate można łączyć w klastry, zapewniają skalowalność i niezawodność. Dano do dodawania dodatkowego sprzętu. Jeśli

zdarza się, gdy zadanie jest wykonywane, jest przesyłany do innego komputera z tego samego klastra.

Dane są chronione na poziomie komórki za pomocą filtrów zabezpieczeń i list kontroli dostępu. Zabezpieczenia ruchu internetowego jest dostarczany przez technologię szyfrowania danych na poziomie transportu - SSL (Secire SocXet Level - poziom chronionych gniazd).

Webintelligence. -Web Produkt do tworzenia zapytań, raportów i analizy danych. Zapewnia użytkownikom sieci (zarówno intranetowi, jak i ekstranet) chroniony dostęp do danych do dalszego badania ich i zarządzania nimi. Dostępne możliwości analityczne różne kategorie. Użytkownicy. Dostępna jest szeroka gama analizy biznesowej, w tym tworzenie złożonych raportów, obliczeń, filtrowania, szczegółów i agregacji.

WebLntelLigence zapewnia następujące funkcje:

formatowanie i drukowanie raportów w trybie projektowania wizualnego;

raporty Bagatablock. W złożonych raportach w celu przekazywania kompleksowych informacji, kilka tabel lub diagramów jest czasami niezbędne do umieszczenia. Aby to zrobić, webintelligence zapewnia możliwość dodawania wielu bloków i diagramów do jednego raportu;

możliwości szczegółów danych w trybie interaktywnym.

Produkt zapewnia wiele funkcji:

dostęp do danych przechowywanych zarówno w tradycyjnych bazach relacyjnych, jak i na serwerze OLAP;

funkcje analizy danych;

możliwość udostępniania informacji. WebintelLigence jest "cienkim" klientem, nie wymaga instalacji i utrzymania aplikacji oprogramowania lub pośrednich oprogramowania bazy danych w lokalizacji klienta. Podczas instalacji części klienta możliwość wyboru technologii. Wdrażanie na platformach Microsoft Windows i UNIX zapewnia.

Korzystając z webintelligence, możesz zbadać i analizować różne źródła danych OLAP, a także dzielić OLAP i dane relacyjne.

Produkt jest skonfigurowany w taki sposób, aby głównie spełniać strukturę korporacyjną dowolnego obiektu.

WebintelLigence można wykonać na jednym serwerze, jak i kilku maszyn NT lub UNIX. Serwery mogą być dodawane do systemu w razie potrzeby, jeśli wystąpi awarię na jednym z komponentów jest automatycznie używany. Wagony równoważenie obciążenia między wieloma serwerami optymalizuje zasoby systemowe i gwarantuje krótki czas odpowiedzi.

WeblntelLigence wykorzystuje różne technologie ochrony informacji. W razie potrzeby składniki są wyznaczone przy użyciu technologii certyfikacji cyfrowej. Aby pracować z różnymi systemami ochrony sieci, zastosowany jest protokół transmisji hipertekstu.

Aplikacja ma standardowy interfejs internetowy. Główne funkcje są obsługiwane (próbka danych z określonymi pomiaryami i wartościami, "wgłębienie" do danych, zagnieżdżone przekrój, obliczenia, włączyć / wyłączyć wyświetlanie ciągów, kolumn i wykresów; filtry, sortowanie) do przeglądania, badań, raportowania i Publikacja danych OLAP w trybie interaktywnym.

Cognos PowerPlay zapewnia następujące funkcje: Zastosuj HTML / JavaScript, który zapewnia uniwersalny dostęp dla użytkownika współpracującego z Netscape Navigator w wersji 3.0 i powyżej lub Microsoft Internet Expover;

dostęp do danych OLAP o dowolnym użytkowniku użytkownika; Tworzenie i wydawanie raportów BRM (zarządzanie wydajnością biznesową - Zarządzanie wydajnością biznesową) w postaci dokumentów PDF do portalu Cognos Upfront, więc użytkownicy mają dostęp do najważniejszych danych korporacyjnych w środowisku WWW;

konwertuj dane z formatu PDF do raportów dynamicznych, ich dalszych badań i transmisji wyników na z góry;

serwer obsługuje pracę z platformami: Windows NT, Windows 2000 i powyżej, Sun Solaris, HP / UX, IBM AIX.

Dzięki wsparciu protokołu Protokołu Paverplay SSL gwarantuje bezpieczeństwo danych, wysyłane przez Internet. Ponadto, określając klasy użytkowników, administratorzy systemu mogą kontrolować dostęp do lokalnych kostek i powłoki portalu internetowego. Klasy te są przechowywane w specjalnym, dostępnym LDAP (protokol dostępu do katalogu światła - Lekki protokół dostępu do katalogu sieciowego), komponent oprogramowania, który jest odpowiedzialny za scentralizowane zarządzanie bezpieczeństwem całego systemu, a także do integracji z bieżącą ochroną.

Korzystanie z HTML do wdrożenia siedzeń klientów zapewnia działanie serwera Paverplay w chronionym środowisku. W ten sposób zapewnia bezpieczne wdrożenie aplikacji dla klientów, partnerów i dostawców.

Alphablox. - Oprogramowanie spoiwa, które zapewnia narzędzia i bloki układu do pracy w sieci. Dzięki temu trudności związane z ochroną połączeń sieciowych z bazami danych, autoryzację i formatowanie danych analitycznej platformy Alphablox są realizowane na podstawie standardowej i 2-kompatybilnej architektury.

Produkty Alfablox są przeznaczone do obliczeń analitycznych wewnątrz i na zewnątrz obiektu.

Szczególnie interesujące są składniki Java (Voch). Z tych komponentów można utworzyć analityczną aplikację internetową. Jeden z czasochłonnych zadań podczas tworzenia produktu OLAP Web jest odzwierciedlone i formatowanie danych w przeglądarce. Bardzo często dane muszą być wyświetlane jako tabela lub wykres. Podczas tworzenia programu za pomocą Alphablox można do niego wstawić dowolną liczbę komponentów Java, takich jak i skonfigurować je, aby rozwiązać niezbędne zadania, określając niektóre parametry aplet, kontrolując tym samym typ i funkcje komponentów. Ten produkt oprogramowania zapewnia następujące funkcje: Dostęp do informacji - Dane są wyodrębnione z różnych baz danych relacyjnych i wielowymiarowych;

zapytania i analiza - Komponenty wykonują proste i złożone prośby o różne źródła danych, a nie wymagane do programowania na CQL;

prezentacja jest możliwość przesyłania danych w różnych formatach (jako raporty, tabele, diagramy).

Komponenty Java mają strukturę modułową i mogą być używane wielokrotnie. Mogą być stosowane przy wdrażaniu możliwości analitycznych dla wielu funkcji biznesowych. Ponieważ są one kontrolowane przez zestaw parametrów, ich właściwości można zmienić za pomocą edytora tekstu. Zapewnia to elastyczność w rozwijaniu i aktualizacji roztworu analitycznego. Komponenty można skonfigurować, aby spełnić określone wymagania biznesowe i ponowne wykorzystanie, wdrażanie dodatkowych aplikacji w innych obszarach działalności. Deweloperzy aplikacji mogą pisać dodatkowy kod na JSP, Javaservlets lub JavaScript.

Alphablox Solutions wykorzystują usługi świadczone przez serwer aplikacji i środowisko środowiska środowiska Java (JROVA), dowolne rozszerzenia Java lub niestandardowe rozszerzenia zaprojektowane dla tej platformy.

Struktura aplikacji alfablox opiera się na standardach i pozwala na integrację z istniejącymi systemami operacyjnymi, infrastrukturą transakcyjną, z tradycyjnymi systemami. Zapewnia dostęp do danych do danych z różnych źródeł i późniejszej analizy.

Alphablox wykorzystuje możliwości standardowych zasobów i funkcji serwera aplikacji, w tym HTTP / Caching i Monitor / Process, a także integrację z serwerami internetowymi. Ponadto architektura 12 kompatybilna eliminuje niepotrzebne aktualizacje stron i umożliwia główną logikę na serwerze.

Alphablox wykorzystuje ten sam model ochrony, a serwer aplikacji zaimplementowany przy użyciu standardowych funkcji platformy J2EE. Eliminuje to konieczność stworzenia niezależnego modelu mechanizmu ochrony.

Łatwe wdrożenie jest jedną z głównych zalet aplikacji internetowej. W pełni dotyczy aplikacji alfablox. Jednak wymagają pewnych wersji przeglądarek i platformy Java, podczas gdy cienki klient HTML działa w większości przeglądarek.

Analiza operacyjna danych opartych na technologii OLAP umożliwia analitycy, menedżerowie i wykonawcy, aby zagłębić się do danych za pomocą stałego, ogólnego, interaktywnego dostępu do szerokiej gamy możliwych formatów danych, które uzyskano z surowych danych, aby odzwierciedlić rzeczywistą pozycję obiektu w forma użytecznych użytkowników. Funkcjonalność OLAP charakteryzuje się dynamiczną wielowymiarową analizą obiektywnych danych obiektu wymaganego do wspierania użytkownika końcowego z działaniami analitycznymi, w tym rachunkiem i modelowaniem, mającym zastosowanie do danych, analizując tendencję w przedziałach sekwencyjnych, wykonujących dane z danych Gidmrench Aby wyświetlić na ekranie, zmiany poziomu szczegółowości informacji w bardziej głębokich poziomach uogólnienia i tym podobnych.

Fundusze OLAP koncentrują się na zapewnieniu wielowymiarowej analizy informacji. Aby osiągnąć to, stosowane są wielowymiarowe modele pamięci masowej i reprezentacje danych. Dane są organizowane w kostkach (lub hiperkubach) określonych w przestrzeni wielowymiarowej składa się z oddzielnych pomiarów. Każdy pomiar zawiera wiele poziomów szczegółów. Operacje typu OLAP obejmują operacje zmiany poziomu prezentacji informacji (promocja w górę iw dół hierarchii pomiarowej), wybierając niektóre części sześcianu i reorientowanie wielowymiarowej reprezentacji danych na ekranie (odbieranie skonsolidowanej tabeli).

W przypadku baz danych OLAP opracowano test odniesienia ARV-1. Ten test symuluje rzeczywistą sytuację na oprogramowanie do serwera OLAP. Standard definiuje zestaw pomiarów określających strukturę logiczną. Logiczna struktura bazy danych składa się z sześciu metrów: czas, skrypt, środek, produkt, klient i kanał. Test odniesienia nie przewiduje określonego modelu fizycznego: dane wejściowe są dostarczane w formacie plików ASCII. Operacje testowe ostrożnie symulują standardowe operacje OLAP na dużych ilościach danych, które są konsekwentnie ładowane z źródeł wewnętrznych lub zewnętrznych. Operacje te obejmują agregację informacji, dane dotyczące danych na hierarchii, obliczając nowe dane oparte na modelach biznesowych i tym podobnych.

Możliwości technologii OLAP jest podstawą organizacji i wielotodowej analizy informacji monitorowania. Rozważ etapy tego procesu.

Przed przesłaniem informacji do wielowymiarowej bazy danych monitorowania (BBD) należy go usunąć z różnych źródeł, czystej, obrócić i skonsolidować (rys. 1.3). W przyszłości informacje muszą być okresowo aktualizowane.

Figa. 1.3.

Pobieranie danych jest procesem pobierania pobierania próbek z baz danych operacyjnych i innych źródeł. Analiza dostępnych źródeł informacji pokazuje, że większość z nich przedstawiono w postaci uzyskanych danych tabelarycznych lub w elektronicznych lub w druku. Nowoczesne skanowanie i rozpoznawanie obrazu oznacza niemal całkowicie zautomatyzować tę fazę przygotowania danych.

Przed dokonaniem informacji w bazie danych należy go wyczyścić. Zazwyczaj czyszczenie zapewnia napełnianie brakujących wartości, regulacji literówki i innych błędów dozwolonych podczas wprowadzania błędów, definiowanie standardowych skrótów i formatów, zastępując synonimy standardowymi identyfikatorami i tym podobnymi. Dane określone jako fałszywe i nie mogą być korygowane, są odrzucane.

Po czyszczeniu danych należy konwertować wszystkie informacje otrzymane w formacie, które spełniają wymagania oprogramowania używane (Server Olap). Procedura transformacji nabywa szczególną wagę, gdy konieczne jest połączenie danych otrzymanych z kilku różnych źródeł. Ten proces nazywa się konsolidacją.

Etap pobierania informacji w BBD jest utworzenie niezbędnej struktury danych i wypełnienie informacji uzyskanych na poprzednich etapach przygotowania danych.

Usunięcie informacji z BBD umożliwia usługi Microsoft SQL Server Analysis, która jest jednocześnie dostawcą zarówno danych wielowymiarowych (dostawca danych tabelarycznych), jak i danych tabelarycznych (dostawca danych tabelarycznych). Zatem wykonanie zwrotów zapytania lub zestawu danych wielowymiarowych lub zwykłej tabeli w zależności od używanego języka zapytań. Służby analizy obsługują zarówno rozszerzenia SQL, jak i MDX (wielowymiarowe wyrażenia).

Zapytania SQL można przesyłać do usług analitycznych przy użyciu narzędzi danych, takich:

Microsoft OLE DB i OLE DB dla OLAP;

Obiekty danych Microsoft ActiveX (ADO) i obiekty danych ActiveX Multidimensional (ADO MD).

OLE DB dla OLAP rozszerza możliwości OLE DB, w tym obiekty specyficzne dla danych wielowymiarowych. ADO MD rozszerza ADO w ten sam sposób.

Microsoft SQL Server Analysis Services umożliwia wypełnienie rozszerzeniami MDX, które zapewniają bogatą i wydajną składnię zapytania do pracy z wielowymiarowymi danymi, zapisanym serwerem OLAP w kostkach. Służby analizy obsługuje funkcje MDX w celu określenia obliczonych pól, konstruować lokalne kostki danych i wykonywanie zapytań za pomocą komponentu usług tabel pilotowych.

Możliwe jest tworzenie niestandardowych funkcji, które działają z wielowymiarowymi danymi. Interakcja z nimi (transmisja argumentów i wyników powrotów) występuje przy użyciu składni MDX.

Służby analizy zapewniają więcej niż 100 wbudowanych funkcji MDX w celu określenia złożonych obliczonych pól. Funkcje te są podzielone na następujące kategorie: praca z tablicami; pracować z pomiarami; pracować z hierarchiami; pracować z poziomami hierarchii; Funkcje logiczne; Praca z obiektami; Funkcje numeryczne; pracować z zestawami; pracować z rzędami; Praca z Ktoczkami.

Możliwe jest utworzenie lokalnych kostek przeznaczonych do przeglądania komputerów, w których zainstalowany jest serwer OLAP. Tworzenie lokalnych kostek wymaga użycia składni MDX i przebiega przez komponent obsługi tabel pilotowych (obsługa tabel pilotażowych), który jest serwer OLE DB Klient Olap. Komponent ten oferuje również pracę w trybie offline z lokalnymi kostkami w przypadku braku połączenia z serwerem OLAP, zapewniając interfejs źródła danych OLE DB. Aby utworzyć lokalne kostki, tworzyć kostkę i wstawić do operatorów.

Język zapytań MDX, który jest rozszerzeniem SQL, pozwala na zapytanie sześcianów z danymi i zwrócić wynik w postaci wielowymiarowych zestawów danych.

Ponadto, jak w zwykłym SQL, twórca żądania MDX musi najpierw określić strukturę zestawu danych, zwroty. W większości przypadków twórca zapytania MDX jest zwracany do danych ustawionych w postaci struktur wielowymiarowych. W przeciwieństwie do zwykłego zapytania SQL, który działa z tabelami, aby uzyskać dwuwymiarowy zestaw rekordów, wniosek MDX dotyczy sześcianów, tworząc wielowymiarowy zestaw danych produktu. Należy zauważyć, że wniosek MDX może powrócić, a dwuwymiarowe zestawy danych, które są konkretnym przypadkiem wielowymiarowego zestawu danych.

Wizualizacja wielowymiarowych zestawów danych może być wystarczająco ciężka. Jedną z metod wizualizacji jest ograniczenie zasilania płaskiej, dwuwymiarowej tabeli za pomocą wielu zagnieżdżonych pomiarów wzdłuż jednej osi. Takie zagnieżdżanie doprowadzi do pojawienia się napisów.

Usługi tabel pilota, która jest częścią Microsoft SQL Server Analysis Services, to serwer OLAP zaprojektowany, aby uzyskać dostęp do danych OLAP. Ta komponent funkcjonuje jako klient usług analitycznych.

Funkcje usług tabel pilotowych są analiza danych, kostek budowlanych i optymalnego zarządzania pamięcią. Komponent zapewnia interfejs do danych wielowymiarowych. Możliwe jest zapisanie danych na lokalnej Kubie na komputerze klienta i późniejszą analizą bez podłączenia do serwera OLAP. Wymagane są usługi tabel pilota do wykonania następujących zadań:

ustanowienie połączenia z serwerem OLAP jako komponent kliencki;

zapewnienie programów interfejsu OLE DB z rozszerzeniami OLAP;

funkcjonowanie jako tabelaryczne źródło danych, obsługuje podzbiór SQL;

funkcjonowanie jako wielowymiarowe źródło danych obsługuje rozszerzenie MDX;

tworzenie lokalnej kostki danych;

funkcjonowanie jako mobilny klient pulpitu OLAP.

Skonsolidowany komponent tabeli może pracować tylko z jedną lokalną sekcją kostki. Nie ma również wbudowanego systemu sterowania dla dostarczania informacji. Dlatego wydajność usług pilotażowych jest bezpośrednio proporcjonalna do głośności danych, do których jest adresowany.

Należy zauważyć, że interfejs OLAP jest prosty i wymaga wiedzy nie więcej niż arkusz kalkulacyjny. OLAP pozwala użyć różne formy Raporty, interaktywne interfejs analizy danych i zdolność do generowania drukowanych formularzy. Jednak w porównaniu z tradycyjnymi metodami programowania i generowania niestandardowych raportów OLAP, nie tylko stu razy zmniejsza koszty programowania, ale także zmienia zasadę pracy użytkownika z raportem.

Różnica między OLAP jako narzędzie generowania raportów jest możliwość automatycznego i interaktywnego wykonania takich operacji z danymi:

rekucencyjne grupowanie danych; obliczenia wyników pośrednich zgodnie z podgrupami; Obliczenia wyników końcowych.

Polecenia dotyczące wykonywania tych operacji są podane przez użytkownika. Sekcje użytej tabeli są kontrolami. Gdy użytkownik zmienia formularz raportu (na przykład przejazdy), system wykonuje obliczenia wyników pośrednich i odzwierciedla nowy raport.

Dodatkowo, użytkownik może zmienić sortowanie i filtr przez dowolne kombinacje danych, patrz dane w warunkach procentowych, zmień skalę i wykonują inne niezbędne konwersja raportu (te funkcje nie są niezbędnym atrybutem technologii OLAP i zależą od konkretnej implementacji narzędzia ).

W rezultacie użytkownik może niezależnie, intuicyjnie zrozumiała go z dostępnego zestawu danych, aby utworzyć wszystkie typy raportów dla tego zestawu. Pomaga przezwyciężyć wieczne ograniczenia systemów informacyjnych, co jest, że moc interfejsów jest zawsze poniżej mocy bazy danych.

Technologia OLAP umożliwia wdrożenie prawie wszystkich możliwych typów obrazu tabeli zawartości bazy danych. Jeśli produkt jest dość elastyczny, zadaniem programisty jest opis warstwy semantycznej (słownik), po czym wykwalifikowany użytkownik może samodzielnie tworzyć nowe kostki, obsługujące warunki przedmiotu sfery podmiotowej znanej. Pozostali użytkownicy mogą tworzyć raporty dla każdej Kuby.

W ten sposób technologia OLAP obsługuje zarówno deweloperzy, jak i użytkowników we wszystkich przypadkach, w których musisz zobaczyć informacje w formie raportów tabelarycznych, w których dane są zgrupowane, a dla grup oblicza się końcowe wskaźniki.

Doświadczenie pokazuje, że nie wystarczy, aby zapewnić użytkownikom dużą kostkę składającą się z różnych pomiarów i faktów. Wynika to z następujących powodów.

Po pierwsze, w każdej chwili użytkownik potrzebuje całkowicie określonego raportu.

Po drugie, niektóre algorytmy obliczania wyników są opisane przez złożone wzory, a użytkownik może nie mieć wystarczających kwalifikacji, aby je ustalić.

Po trzecie, raport OLAP może mieć określony przez autor metodologii sprawozdawczej, układ pomiarów i początkowe warunki sortowania.

Czwarty, w wielu przypadkach łatwiej jest zrozumieć dane, jeśli nie szukasz tabeli z numerami, ale na wykresie. Aby skonfigurować diagram OLAP, czasami konieczne jest posiadanie dobrej wyobraźni przestrzennej, ponieważ sześcian z zestawem pomiarów musi być odzwierciedlona jako zestaw liczb lub linii w postaci trójwymiarowej. Liczba właściwości nowoczesnych elementów graficznych jest obliczana przez tysiące, więc wstępna konfiguracja wykresu lub grafiki dla raportu OLAP może zająć dużo czasu.

Piąty, jak w przypadku każdego innego raportu, ważne jest dla raportu OLAP, jego spektakularnej konstrukcji, która zawiera ustawienia nagłówków i podpisów, kolorów i czcionek.

Tak więc, aby zapewnić wygodną obsługę użytkownika raport OLAP musi zawierać pewny zestaw metadanych aplikacji opisujących algorytmy agregacji, wstępne warunki filtrowania i sortowania, nagłówki i komentarze, zasady projektu wizualnego.

Wraz z wizualizacją wielowymiarowych informacji sześcian, znacznym czynnikiem jest usprawnienie pomiarów według ich podobieństwa. Podstawową ideą jest to, że pomiary, które charakteryzują podobne parametry znajdują się w pobliżu. Aby określić takie pomiary, stosuje się różne metody grupowania, w szczególności można stosować algorytmy heurystyczne.

Opisane informacje i technologia analityczna nie jest jedyna możliwa. Ale wszyscy są rozwojem inteligencji Business (WS), którego cesja jest zbiórką, systematyzacją, analizą i prezentacją informacji. Wybór konkretnych informacji i technologii analitycznej pozostaje dla użytkownika, biorąc pod uwagę specyfikę obszaru przedmiotowego.

Czy lubiłeś artykuł? Aby podzielić się z przyjaciółmi: